906 resultados para lambda-calcolo, teoremi di separazione, risorse, espansione di Taylor


Relevância:

50.00% 50.00%

Publicador:

Resumo:

Estrapolazione dati riguardanti le altezze di precipitazione dagli Annali Idrografici, relativi a 34 stazioni pluviometriche della Romagna. Elaborazione ed analisi di istogrammi che rappresentano le altezze di precipitazione annuale delle stazioni, dal 1924 al 2014, con l’aggiunta di grafici inerenti il totale delle precipitazioni mensili, con relativa linea di media. Utilizzo del test di Mann-kendall attraverso il quale si è tracciata la linea di tendenza, per ogni singola stazione, con calcolo successivo della pendenza di Sen e del p-value. Valutazione stazioni con p-value molto piccoli (Brisighella, Predappio, Strada San Zeno, San Benedetto in Alpe), attraverso i totali stagionali, e successivo istogramma, utile per verificare l'effettiva coerenza tra il trend annuale e quello stagionale. Considerazioni finali sui trend significativi.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nella prima parte dell'elaborato vengono introdotti dei concetti basilari del sistema ferroviario necessari al proseguo della trattazione: i sistemi di circolazione utilizzati in Italia, le sezioni di blocco, i sistemi di sicurezza e di controllo della marcia, il sistema ERTMS a livello europeo. Nella seconda parte, dopo aver introdotto il concetto di capacità, vengono analizzati nel dettaglio e confrontati, in termini di capacità teorica, i sistemi basati sul blocco fisso e sul blocco mobile. Vengono quindi proposti i metodi utilizzati per il calcolo della capacità reale, prestando particolare attenzione al metodo dei coefficienti di ritardo specifico D e di stabilità X. Da quest' ultimo e con l'introduzione dei livelli di servizio, viene analizzato il rapporto che lega la capacità con la qualità della circolazione. Infine viene proposto un confronto tra le linee convenzionali e le linee AV/AC in Italia, evidenziando il rapporto tra le caratteristiche di velocità e di capacità.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il crescente fabbisogno energetico mondiale, dovuto essenzialmente al rapido incremento di popolazione originatosi nel secolo scorso, unitamente alla necessità di ridurre le emissioni di anidride carbonica, porta a ricercare continuamente nuove fonti primarie di energia nonché metodi innovativi per il recupero di quest’ultima da materiali di scarto. I Cicli Rankine a fluido Organico (Organic Rankine Cycle) rappresentano in questo senso una tecnologia emergente capace di rivoluzionare il concetto di risparmio energetico. In questa tesi viene effettuato uno studio dettagliato della tecnologia ORC, che mira ad identificarne i principali vantaggi e le maggiori problematiche, con particolare riferimento ad un caso di studio concreto, riguardante l’installazione di un impianto di recupero energetico da fumi di combustione all’interno di uno stabilimento di produzione di nero di carbonio. Il cuore della tesi è rappresentato dall’individuazione e dall’analisi dettagliata delle alternative impiantistiche con cui il recupero energetico può essere realizzato. Per ognuna di esse, dopo una breve spiegazione, viene effettuato il calcolo dell’energia elettrica prodotta annualmente con l’ausilio un simulatore di processo. Successivamente vengono esposte le proposte ricevute dai fornitori interpellati per la fase di progettazione di base dell’impianto di recupero energetico. Nell’ultima parte della tesi viene presentata la simulazione fluidodinamica del camino di una delle linee di produzione dell’impianto di Ravenna, effettuata utilizzando un codice CFD e mirata alla verifica dell’effettiva quantità di calore recuperato dai fumi e dell’eventuale presenza di condense lungo la ciminiera. I risultati ottenuti mostrano che la tecnologia ORC, utilizzata per il recupero energetico in ambito industriale, possiede delle grosse potenzialità. La massimizzazione dei vantaggi derivanti dall’utilizzo di questi sistemi è tuttavia fortemente condizionata dalla capacità di gestire al meglio l’integrazione degli impianti di recupero all’interno dei processi produttivi esistenti.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Seguendo l'approccio di M. Hairer si dà una dimostrazione della versione probabilistica del Teorema di ipoellitticità di Hormander che utilizza un calcolo di Malliavin "ridotto".

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi inserita in un periodo di forte transizione dai sistemi On­premises a sistemi Cloud ha avuto l'esigenza di risolvere alcune problematiche legate alla definizione delle infrastrutture. Come poter scalare le risorse all'evenienza ricreando gli stessi ambienti, monitorandoli e mettendo in sicurezza i dati critici delle applicazioni? La tesi ha risposto proprio a questa domanda definendo un nuovo paradigma nel concepire le infrastrutture chiamato Infrastructure as Code. La tesi ha approfondito le pratiche e le metodologie che si sono legate maggiormente all'Infrastructure as Code tra le quali Version Control, Configuration Management, Continuous Integration e Continuous Delivery. La tesi inoltre ha previsto la realizzazione di un prototipo finale nato dallo studio del flusso di sviluppo software aziendale, definendo gli ambienti in accordo ai sistemi di Version Control e Configuration Management, applicando pratiche di integrazione continua per giungere ad una deployment pipeline funzionale.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’obiettivo del presente lavoro è illustrare la creazione di due corpora bilingui italiano-inglese di libretti d’opera di Giuseppe Verdi, annotati e indicizzati, e descrivere le potenzialità di queste risorse. Il progetto è nato dalla volontà di indagare l’effettiva possibilità di gestione e consultazione di testi poetici tramite corpora in studi translation-driven, optando in particolare per il genere libretto d’opera in considerazione della sua complessità, derivante anche dal fatto che il contenuto testuale è fortemente condizionato dalla musica. Il primo corpus, chiamato LiVeGi, si compone di cinque opere di Giuseppe Verdi e relativa traduzione inglese: Ernani, Il Trovatore, La Traviata, Aida e Falstaff; il secondo corpus, nominato FaLiVe, contiene l’originale italiano dell’opera Falstaff e due traduzioni inglesi, realizzate a circa un secolo di distanza l’una dall’altra. All’analisi del genere libretto e delle caratteristiche principali delle cinque opere selezionate (Capitolo 1), segue una panoramica della prassi traduttiva dei lavori verdiani nel Regno Unito e negli Stati Uniti (Capitolo 2) e la presentazione delle nozioni di Digital Humanities e di linguistica computazionale, all’interno delle quali si colloca il presente studio (Capitolo 3). La sezione centrale (Capitolo 4) presenta nel dettaglio tutte le fasi pratiche di creazione dei due corpora, in particolare selezione e reperimento del materiale, OCR, ripulitura, annotazione e uniformazione dei metacaratteri, part-of-speech tagging, indicizzazione e allineamento, terminando con la descrizione delle risorse ottenute. Il lavoro si conclude (Capitolo 5) con l’illustrazione delle potenzialità dei due corpora creati e le possibilità di ricerca offerte, presentando, a titolo d’esempio, due case study: il linguaggio delle protagoniste tragiche nei libretti di Verdi in traduzione (studio realizzato sul corpus LiVeGi) e la traduzione delle ingiurie nel Falstaff (attraverso il corpus FaLiVe).

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di evidenziare, attraverso varie analisi statistiche ed applicazione di modelli stocastici, il comportamento strutturale e funzionale dei dinucleotidi che compongono le sequenze di DNA di diversi organismi. Gli organismi che abbiamo scelto di prendere in considerazione sono l'uomo, il topo e l'Escherichia coli. Questa scelta non è stata casuale, ma oculata, al fine di mettere in risalto alcune differenze tra organismi eucarioti, quali l'uomo e il topo, ed organismi procarioti come il batterio E.coli. Nella prima parte del nostro studio, abbiamo computato le distanze che intercorrono tra occorrenze successive dello stesso dinucleotide lungo la sequenza, usando un metodo di non sovrapposizione, ed abbiamo iterato il calcolo per tutti i 16 dinucleotidi. Dopodiché ci siamo preoccupati di graficare le distribuzioni di distanza dei 16 dinucleotidi per l'E.Coli, il topo e l'uomo; gli istogrammi evidenziano un comportamento anomalo della distribuzione di CG che accomuna gli organismi eucarioti e di cui, invece, è esente l'organismo procariote esaminato. Questo dato statistico trova una spiegazione nei processi biologici di metilazione che possono innescarsi sul dinucleotide CG nelle sequenze eucariotiche. In seguito, per determinare quanto ciascuna delle 16 distribuzioni si discosti dalle altre abbiamo usato la divergenza di Jensen-Shannon. Per quantificare le differenze sostanziali tra le distribuzioni di CG dei 3 organismi considerati abbiamo deciso di verificare quale fosse il miglior fit per tali curve tra un esponenziale ed una power-law. L'esponenziale rappresenta un buon fit per le code delle distribuzioni di CG del topo e dell'uomo; ciò rivela la presenza di una lunghezza caratteristica per entrambi gli organismi. Nella seconda parte dello studio, i risultati vengono confrontati con modelli markoviani: sequenze random generate con catene di Markov di ordine zero (basate sulle frequenze relative dei nucleotidi) e uno (basate sulle probabilità di transizione tra diversi nucleotidi). Quest'ultima riproduce abbastanza fedelmente la sequenza biologica di partenza, per cui abbiamo scelto di utilizzare la catena Markov del 1° ordine per altre analisi statistiche riguardanti le distribuzioni dei nucleotidi, dinucleotidi, ed anche dei trinucleotidi con particolare interesse per quelli in cui è contenuto CG, in modo da verificare se l'anomalia si ripercuote anche in essi. Riteniamo pertanto che metodi basati su questo approccio potrebbero essere sfruttati per confermare le peculiarità biologiche e per migliorare l'individuazione delle aree di interesse, come le isole CpG, ed eventualmente promotori e Lamina Associated Domains (LAD), nel genoma di diversi organismi.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Scopo di questa tesi è lo sviluppo di un codice nell'ambiente per il calcolo numerico Matlab atto a simulare il comportamento di un compressore centrifugo. Tale compressore centrifugo è stato studiato per l'utilizzo in un gruppo turbogas per la produzione di energia elettrica. Con l’utilizzo di alcune semplificazioni, è stata tracciata la mappa di tale compressore in intervalli di portata e salti di pressione il più possibile distanti dal funzionamento con condizioni di progetto.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Effettuare la calibrazione di un motore a combustione interna richiede precisione e al contempo tempi ridotti per poter essere eseguita in modo rapido e sicuro sui banchi prova. In questo elaborato viene trattata in particolare la calibrazione dell’anticipo di accensione, parametro fondamentale per massimizzare la PMI e quindi le prestazioni di un motore da corsa, ma altrettanto delicato per quanto riguarda il fenomeno della detonazione in cui si può incorrere attuando combustioni troppo anticipate durante la ricerca della fase ottimale. Con l’esigenza di dover calibrare il singolo motore in maniera non distruttiva, utilizzando una procedura di calibrazione automatica, è quindi necessario ricorrere a un sistema che sia in grado di prevedere il valore di anticipo che genererà un livello di detonazione ritenuto pericoloso per l’integrità del motore. Tale operazione deve essere effettuata con la miglior precisione possibile, in modo tale che venga esplorato tutto il campo dei valori di anticipo attuabili dato che la condizione di massima prestazione si trova a ridosso delle condizioni detonanti, quindi nella ricerca dell’ottimo ci si può imbattere in situazioni dannose. In questo elaborato è stata analizzata e rivista una procedura in ambiente MATLAB al fine di ridurne i tempi di calcolo fra una rampa di calibrazione e l’altra senza rinunciare all’accuratezza della previsione dell’anticipo limite ponendo l’attenzione sui parametri più importanti che regolano l’algoritmo di previsione. Inoltre per il calcolo dell’anticipo limite è stato implementato un approccio alternativo di tipo probabilistico basato sui dati sperimentali ciclo per ciclo, valutando anche modelli alternativi da applicare per il calcolo del MAPO statistico.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro di tesi si pone l’obiettivo di studiare come un Cubesat 1U reagisce se sollecitato con vibrazioni di una certa banda di frequenze, corrispondenti a quelle generate durante il lancio del vettore VEGA, e cercare di sviluppare un modello virtuale che in futuro permetta di simulare in maniera più realistica il comportamento delle successive strutture che saranno progettate. Il campo dei nanosatelliti è in rapida espansione negli ultimi anni, bassi costi di produzione e lancio abbinati a tempi rapidi di sviluppo e progettazione li rendono un ottimo strumento per aziende di piccole dimensioni e università per aquisire esperienza nel campo delle tecnologie spaziali e permettere la formazione degli studenti. Grazie a questi fattori il corso di Ingegneria Aerospaziale di Forlì ha intrapreso la progettazione di un Cubesat che una volta ultimato potrà essere lanciato in orbita grazie al contributo dell’ESA, che si presta a fornire lanci gratuiti alle università europee. Questo progetto porta avanti il lavoro compiuto durante la fase di tirocinio in cui abbiamo cercato di progettare una struttura semplice e realizzabile completamente nei laboratori dell’università, che permettesse anche successivamente a studenti e dottorandi di cimentarsi nello studio e nella progettazione di un nanosatellite. Il mio compito in particolare consiste nell’esecuzione di una serie di prove sperimentali con uno shaker presente nei laboratori della Scuola e, raccogliendo, analizzando e interpretando la risposta della struttura, si cercherà di modificare il modello CAD realizzato finora (lavoro compiuto in un'altra tesi di laurea) in modo che rispecchi più fedelmente il comportamento di quello reale e fornire quindi una base ai futuri lavori in questo ambito. La struttura, ispirata a quelle già presenti sul mercato, è stata progettata utilizzando Solidworks un software CAD, successivamente è stata fatta un analisi tramite un altro software FEM, realizzato e poi testato mediante uno shaker presso i laboratori del corso di studi in ingegneria aerospaziale di Forlì. Per poter fare ciò si è anche realizzata quella che è stata usata come interfaccia per connettere il Cubesat allo shaker, infatti data la sua proprietà di esercitare spostamenti solo lungo l’asse verticale si è reso necessario trovare un modo per sollecitare il nanosatellite lungo tutti e tre gli assi per poter evidenziare i modi flessionali della struttura. I dati ottenuti riguardano le accelerazioni rilevate in vari punti del Cubesat e del supporto da parte di accelerometri piezometrici che sono stati analizzati per risalire al tipo di comportamento con cui ha risposto la struttura a vibrazioni di varia frequenza e intensità.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questa tesi affronta uno dei principali argomenti trattati dalla finanza matematica: la determinazione del prezzo dei derivati finanziari. Esistono diversi metodi per trattare questo tema, ma in particolare vengono illustrati i metodi che usano la trasformata di Fourier. Questi ultimi infatti ci permettono di sostituire il calcolo dell'attesa condizionata scontata, con il calcolo dell'integrale della trasformata di Fourier, in quanto la funzione caratteristica, cioè la trasformata di Fourier della funzione densità, è più trattabile rispetto alla funzione densità stessa. Vengono in primo luogo analizzate alcune importanti formule di valutazione e successivamente implementate, attraverso il software Mathematica. I modelli di riferimento utilizzati per l'implementazione sono il modello di Black-Scholes e il modello di Merton.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L'elaborato espone la progettazione di una macchina automatica e propone uno strumento per il calcolo del tempo delle sua produzione.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

I rifiuti rappresentano un’opportunità di crescita sostenibile in termini di riduzione del consumo di risorse naturali e di sviluppo di tecnologie per il riciclo di materia ed il recupero energetico. Questo progetto di ricerca si occupa di valutare, attraverso l’approccio dello studio del ciclo di vita, la valorizzazione energetica di una particolare categoria di rifiuti: i fanghi derivanti dalla depurazione delle acque. Si è studiata la valorizzazione dei fanghi attraverso l’applicazione del Thermo Catalytic Re-forming (TCR)®, tecnologia che consente di trasformare i fanghi in un carburante per la produzione di energia elettrica (bioliquido). Le valutazioni sono effettuate per una linea di processo generale e due configurazioni progettuali declinate in due scenari. Il caso di studio è stato riferito al depuratore di S. Giustina (Rimini). Per la linea di processo, per ognuna delle configurazioni e i relativi scenari, è stato compilato il bilancio energetico e di massa e, conseguentemente, valutata l’efficienza energetica del processo. Le regole della Renewable Energy Directive (RED), applicate attraverso lo strumento ‘BioGrace I’, permettono di definire il risparmio di gas serra imputabile al bioliquido prodotto. I risultati mostrano che adottare la tecnologia TRC® risulta essere energeticamente conveniente. Infatti, è possibile ricavare dal 77 al 111% del fabbisogno energetico di una linea di processo generale (linea fanghi convenzionale e recupero energetico TCR®). Questo permette, quindi, di ricavare energia utile al processo di depurazione. La massima performance si realizza quando la tecnologia si trova a valle di una linea di trattamento fanghi priva di digestione anaerobica e se il biochar prodotto viene utilizzato come combustibile solido sostitutivo del carbone. La riduzione delle emissioni imputabile al bioliquido prodotto va dal 53 al 75%, valori che soddisfano il limite definito dalla RED del 50% di riduzione delle emissioni (2017) per ogni configurazione progettuale valutata.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi tratta l’analisi preliminare dell’Organization Environmental Footprint (OEF) dell’ente gestore dell’aeroporto Falcone - Borsellino di Palermo (GES.A.P.). Viene inoltre sviluppato un nuovo metodo per la classificazione degli aspetti ambientali utilizzabile all’interno del Sistema di Gestione Ambientale (SGA) attualmente utilizzato dall’ente GES.A.P. Dopo un'introduzione sulle ragioni che hanno portato allo sviluppo di questi strumenti, vengono approfondite le fasi necessarie per la loro applicazione, specificate nella guida metodologica sull’OEF e nella norma ISO 14001. I dati raccolti per il calcolo dell’OEF sono stati inseriti in un modello dell’organizzazione creato con il software GaBi7 al fine di stimare gli impatti ambientali dell’organizzazione negli anni analizzati. In questo lavoro viene effettuata un’analisi del metodo EMRG (Environmental Management Research Group) utilizzato per l’individuazione e la classificazione degli aspetti ambientali nell’ambito del SGA (certificato ISO 14001:2004) di GESAP e delle innovazioni introdotte nella versione 2015 della norma ISO 14001. Viene suggerito un metodo alternativo basato sull’integrazione dei risultati di un'analisi Life Cicle Assessment (LCA), svolta tramite l’OEF, con la metodologia EMRG, attualmente impiegata, al fine di avviare il processo di transizione del SGA verso l’aggiornamento-consegna richiesto dalla ISO14001:2015. Dall’applicazione del metodo viene ricavata una nuova gerarchia degli aspetti ambientali di GESAP utilizzabile per l’implementazione del suo SGA.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Secondo l'Agenzia Europea dell'Ambiente una delle principali minacce per le risorse di acqua dolce della zone costiere italiane è l’intrusione salina. L’obiettivo di questa tesi magistrale è la caratterizzazione idrogeologica di una frazione dell’acquifero freatico costiero situato in due differenti corpi dunosi. L’indagine proseguita per cinque mesi ha evidenziano differenze tra un’area sottoposta a forte pressione antropica (Marina Romea) e un’area che mostra un relativo sviluppo naturale del sistema spiaggia-duna (Porto Corsini). La tecnica di campionamento utilizzata è il sistema a minifiltri (multi level samplers), metodologia innovativa che garantisce tempistiche di monitoraggio rapide e una campionatura multi-livello puntuale e precisa. La campagna di monitoraggio ha coinvolto misure di freatimetria, conduttività elettrica e analisi chimiche delle acque che hanno portato ad una loro classificazione geo-chimica. Dai risultati si evidenzia che l’acquifero è molto salinizzato, gli strati d’acqua dolce sono isolati in lenti superficiali e i tipi di acque presenti sono dominati da ioni sodio e cloro. Tra i due siti il più vulnerabile risulta essere Marina Romea per molti fattori: l’erosione costiera che assottiglia la fascia dunale adibita alla ricarica di acqua dolce, un’estensione spaziale della duna minore rispetto a Porto Corsini, la presenza di infrastrutture turistiche che hanno frazionato la duna, la vicinanza al canale di drenaggio che causa la risalita delle acque profonde saline, la presenza di specie arboree idro-esigenti che attingono e quindi assottigliano le lenti d’acqua dolce. Si propone di migliorare la qualità dell’acqua sotterranea con una migliore gestione del canale di drenaggio, sostituendo alcuni esemplari di pinacee con specie arbustive tipiche degli ambienti dunosi ed infine imponendo misure per il risparmio idrico durante la stagione turistica.