963 resultados para ALMASat-EO, Modello termico, ESATAN
Resumo:
Negli ultimi cinquant’anni, il trasporto aereo ha sperimentato una rapida espansione, parallelamente alla crescita dell’economia globale. Gli aeroporti, oggi, rappresentano strutture complesse, sulle quali si concentrano interessi economici, sociali e strategici di notevole importanza. Il traffico passeggeri, espresso in RPK (Revenue Passenger Kilometers – ricavo per passeggero-chilometro trasportato), dal 1960, è cresciuto di quasi il 9% l’anno, più del doppio del Prodotto Interno Lordo (PIL), e con un tasso di crescita superiore rispetto alle altre modalità di trasporto. Si prevede che il traffico aereo, sia passeggeri che merci, continuerà ad aumentare nel prossimo futuro: le stime di crescita del traffico aereo riportate nell’ultimo rapporto di valutazione ambientale prodotto dall’ICAO (ICAO Environmental Report 2013) prevedono, per il periodo 2010-2030, un aumento del tasso di crescita annuo dei passeggeri, espresso in RPK, pari al +4,9%. Il valore stimato di RPK per il 2030 è pari a 13 bilioni, quasi tre volte maggiore di quello registrato nel 2010. Come conseguenza, anche le emissioni nocive per l’ambiente e per il clima direttamente legate al trasporto aereo sono aumentate, perché l’aumento della domanda di trasporto aereo ha superato la riduzione delle emissioni dovute ai continui miglioramenti apportati dalla tecnologia e dall’ottimizzazione delle procedure operative.
Resumo:
Il CP-ESFR è un progetto integrato di cooperazione europeo sui reattori a sodio SFR realizzato sotto il programma quadro EURATOM 7, che unisce il contributo di venticinque partner europei. Il CP-ESFR ha l'ambizione di contribuire all'istituzione di una "solida base scientifica e tecnica per il reattore veloce refrigerato a sodio, al fine di accelerare gli sviluppi pratici per la gestione sicura dei rifiuti radioattivi a lunga vita, per migliorare le prestazioni di sicurezza, l'efficienza delle risorse e il costo-efficacia di energia nucleare al fine di garantire un sistema solido e socialmente accettabile di protezione della popolazione e dell'ambiente contro gli effetti delle radiazioni ionizzanti. " La presente tesi di laurea è un contributo allo sviluppo di modelli e metodi, basati sull’uso di codici termo-idraulici di sistema, per l’ analisi di sicurezza di reattori di IV Generazione refrigerati a metallo liquido. L'attività è stata svolta nell'ambito del progetto FP-7 PELGRIMM ed in sinergia con l’Accordo di Programma MSE-ENEA(PAR-2013). Il progetto FP7 PELGRIMM ha come obbiettivo lo sviluppo di combustibili contenenti attinidi minori 1. attraverso lo studio di due diverse forme: pellet (oggetto della presente tesi) e spherepac 2. valutandone l’impatto sul progetto del reattore CP-ESFR. La tesi propone lo sviluppo di un modello termoidraulico di sistema dei circuiti primario e intermedio del reattore con il codice RELAP5-3D© (INL, US). Tale codice, qualificato per il licenziamento dei reattori nucleari ad acqua, è stato utilizzato per valutare come variano i parametri del core del reattore rilevanti per la sicurezza (es. temperatura di camicia e di centro combustibile, temperatura del fluido refrigerante, etc.), quando il combustibile venga impiegato per “bruciare” gli attinidi minori (isotopi radioattivi a lunga vita contenuti nelle scorie nucleari). Questo ha comportato, una fase di training sul codice, sui suoi modelli e sulle sue capacità. Successivamente, lo sviluppo della nodalizzazione dell’impianto CP-ESFR, la sua qualifica, e l’analisi dei risultati ottenuti al variare della configurazione del core, del bruciamento e del tipo di combustibile impiegato (i.e. diverso arricchimento di attinidi minori). Il testo è suddiviso in sei sezioni. La prima fornisce un’introduzione allo sviluppo tecnologico dei reattori veloci, evidenzia l’ambito in cui è stata svolta questa tesi e ne definisce obbiettivi e struttura. Nella seconda sezione, viene descritto l’impianto del CP-ESFR con attenzione alla configurazione del nocciolo e al sistema primario. La terza sezione introduce il codice di sistema termico-idraulico utilizzato per le analisi e il modello sviluppato per riprodurre l’impianto. Nella sezione quattro vengono descritti: i test e le verifiche effettuate per valutare le prestazioni del modello, la qualifica della nodalizzazione, i principali modelli e le correlazioni più rilevanti per la simulazione e le configurazioni del core considerate per l’analisi dei risultati. I risultati ottenuti relativamente ai parametri di sicurezza del nocciolo in condizioni di normale funzionamento e per un transitorio selezionato sono descritti nella quinta sezione. Infine, sono riportate le conclusioni dell’attività.
Resumo:
I componenti del carbonio in ambito strutturale (aeronautico, navale, automobilistico) sono soggetti a deterioramenti ambientali di difficile determinazione, in particolare alla temperatura e all'umidità. Scopo di questa tesi è determinare i danneggiamenti dei materiali compositi CFRP in funzione di un invecchiamento a diverse percentuali della temperatura di transizione vetrosa Tg. In particolare si vuole studiare e approfondire il processo di reazione della matrice e del carbonio. Per meglio descrivere il procedimento di deterioramento e reazione del materiale composito dovuto ad alti livelli di temperatura, mi sono avvalso del supporto pratico dell’azienda “Riba Composites” di Faenza che in particolare si occupa della prototipazione e produzione di componenti strutturali in materiali compositi avanzati e che si è dimostrata leader nel settore dei compositi CFRP. Pochi studi sono stati condotti su tale argomento. Da qui il mio interesse specifico nel volere studiare e dimostrare come questo processo possa ulteriormente apportare un aiuto agli studi in ambito strutturale già effettuati e pubblicati precedentemente. La dimostrazione pratica della seguente tesi è avvenuta, con l’aiuto dell’Ing. Paolo Proli, nel laboratorio di MaSTeR Lab dell’Università di Bologna, dove si è deciso di eseguire vari invecchiamenti termici a diverse temperature per constatare i livelli di deterioramento e influenza delle variazioni di temperatura sulla matrice del composito preso in analisi. Gli effetti di tale studi sono stati sostenuti anche grazie alla guida del Professore Lorenzo Donati, e verranno dettagliatamente evidenziati nello specifico con spiegazioni in ambito teorico e dimostrazioni pratiche affiancate da schemi dimostrativi e supporto grafico.
Resumo:
In questo lavoro sono presentate le principali caratteristiche delle previsioni meteorologiche mensili, nonché il progresso scientifico e storico che le ha coinvolte e le tecniche adibite alla loro verifica. Alcune di queste tecniche sono state applicate al fine di valutare ed analizzare l'errore sistematico (o bias) e l'RMSE di temperatura a 850 hPa (T850), altezza geopotenziale a 500 hPa (Z500) e precipitazioni cumulate del modello GLOBO, utilizzato presso l'Istituto per le Scienze dell'Atmosfera e del Clima del Consiglio Nazionale delle Ricerche per formulare previsioni mensili. I risultati mostrano la progressione temporale dell'errore, che aumenta nelle prime due settimane di integrazione numerica fino a stabilizzarsi tra la terza e la quarta. Ciò mostra che il modello, persa l'influenza delle condizioni iniziali, raggiunge un suo stato che, per quanto fisiologicamente distante da quello osservato, tende a stabilizzarsi e a configurarsi quindi come sistematico (eventualmente facilitandone la rimozione in fase di calibrazione delle previsioni). Il bias di T850 e Z500 presenta anomalie negative prevalentemente lungo le zone equatoriali, e vaste anomalie positive sulle aree extra-tropicali; quello delle precipitazioni mostra importanti sovrastime nelle zone continentali tropicali. La distribuzione geografica dell'RMSE (valutato solo per T850 e Z500) riscontra una generale maggiore incertezza nelle zone extra-tropicali, specie dell'emisfero settentrionale e nei mesi freddi.
Resumo:
Il presente lavoro intende offrire un riassunto dello “stato dell’arte” della Cosmologia: dopo averne ripercorso per sommi capi la storia degli ultimi cent’anni (cap.1), verrà illustrato il Modello Cosmologico Standard “ΛCDM” (cap.2), che è quello generalmente accettato dalla comunità scientifica allo stato attuale delle conoscenze; infine, si farà un breve “excursus” sulle questioni “aperte” e sui modelli cosmologici alternativi (cap.3).
Resumo:
L’elaborato descrive il lavoro svolto nella realizzazione di un software in linguaggio Labview, la cui funzione è di controllare, mediante una scheda, l’alimentatore di un fornetto facente parte di un apparato per spettroscopia di desorbimento termico (TDS), in modo che esso generi una “rampa” di temperatura. La spettroscopia di desorbimento termico è una tecnica che consente di rivelare i gas precedentemente adsorbiti su una superficie. Nella prima fase dell’attività ho implementato un codice dedicato al mantenimento di una temperatura costante (“generazione di un’isoterma”) al fine di acquisire dimestichezza col linguaggio Labview e le problematiche relative al controllo PID. A seguito di questo studio ho proceduto alla realizzazione del software richiesto, partendo da un controllo puramente proporzionale, aggiungendo successivamente le parti integrativa e derivativa opportunamente pesate in base alla risposta del sistema. L’algoritmo utilizzato, tuttavia, non è di tipo PID in senso stretto, poiché sono state apportate alcune modifiche al fine di raggiungere il migliore risultato possibile nella generazione della rampa. Nell’elaborato sono esposti i grafici che mostrano i risultati ottenuti. Nel primo capitolo è presente la descrizione del fenomeno oggetto di studio, a cui segue la descrizione dell’apparato. Gli altri due capitoli sono dedicati alla descrizione dell’algoritmo utilizzato e del lavoro svolto.
Resumo:
Una teoria di unificazione ha il notevole compito di fornire un modello in grado di unificare le forze fondamentali della natura in una sola. Storicamente uno dei primi tentativi è rappresentato dal modello di Kaluza, che propone una formulazione unificata di gravità ed elettromagnetismo. In 4 dimensioni il campo gravitazionale e il campo elettromagnetico sono entità nettamente separate. Tale dualismo può essere superato estendendo la teoria della Relatività Generale ad uno spaziotempo a 5 dimensioni. Se alle consuete 4 si aggiunge una quinta dimensione spaziale, allora si dimostra che la gravità e l’elettromagnetismo possono essere visti come la manifestazione di un unico campo di forza, che è interpretabile in termini della geometria dello spaziotempo a 5 dimensioni. Nonostante i suoi intrinseci limiti, il modello di Kaluza rappresenta comunque un punto di partenza per molte altre teorie di campo unificato più moderne e a più di 5 dimensioni. L'obiettivo è di sviluppare le linee fondamentali del modello di Kaluza. Preliminarmente si riportano i risultati principali dell'elettromagnetismo e della Relatività Generale, dato che il modello si formula a partire da questi. Si stabilisce la condizione di cilindro, secondo cui le quantità fisiche non subiscono variazioni nella quinta dimensione. Si ipotizza un ansatz per il tensore metrico 5D e si scrivono le equazioni di campo unitario e della geodetica, come estensioni a 5 dimensioni di quelle in 4. Si dimostra che il campo unitario in 4 dimensioni si separa nel campo scalare costante, nel campo elettromagnetico e nel campo gravitazionale. Le componenti quadridimensionali della geodetica 5D riconducono a quella 4D e alle leggi del moto 4D in presenza dei campi gravitazionale ed elettromagnetico. Inoltre si interpreta la carica elettrica come la quinta componente della velocità covariante 5D.
Resumo:
Lo studio della memoria semantica attraverso modelli teorici (qualitativi o matematici) gioca un ruolo importante nelle neuroscienze cognitive. In questa tesi viene presentato un modello della memoria semantica e lessicale. Il principio alla base del modello è che la semantica di un oggetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione dell’oggetto nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate del cervello, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è indagare i meccanismi che portano alla formazione di categorie, analizzare il ruolo delle diverse proprietà nella costruzione di un concetto e le connessioni tra queste proprietà e la parola corrispondente al nome dell’oggetto. Durante l’addestramento per ogni oggetto sono presentate alcune proprietà in input, con una data frequenza: alcune sono condivise, cioè appartengono a più di un concetto e permettono la formazione di categorie, altre sono distintive, cioè sono tipiche di un concetto e consentono la rappresentazione dei membri di una categoria. Un ulteriore aspetto riguardante le proprietà è la distinzione fra proprietà salienti, che sono spontaneamente evocate, e proprietà marginali. E’ stata utilizzata una tassonomia composta da 11 parole che identificano 11 animali. La salienza è stabilita dalla frequenza con cui si verifica ciascuna proprietà. La distinzione tra proprietà condivise e distintive, e tra proprietà salienti e non salienti, è stata ottenuta mediante l’uso della regola di Hebb con una diversa soglia presinaptica e postsinaptica, producendo patterns di sinapsi asimmetriche all’interno della rete semantica (auto-associazione) e tra la rete semantica e lessicale (etero-associazione). La rete addestrata è in grado di risolvere compiti di riconoscimento e denominazione di oggetti, mantenendo una distinzione tra le categorie e i suoi membri, e fornendo un diverso ruolo per le proprietà salienti rispetto alle proprietà marginali.
Resumo:
Studio delle variazioni delle prestazioni della cella solare a causa di non omogeneità localizzate nella struttura della cella (in questo caso trattasi di interruzioni nei fingers) . Valutazioni fatte per mezzo di simulazioni a rete elettrica distribuita, utilizzando un modello elettrico sviluppato in precedenza presso il laboratorio di Ingegneria di Cesena.
Resumo:
Ogni giorno enormi quantità di dati sono prodotti come record dettagliati del comportamento di utilizzo del Web, ma l'obiettivo di trarne conoscenza rimane ancora una sfida. In questa trattazione viene descritto EOP(Eye-On-Portal), un framework di monitoring che si propone come strumento per riuscire a catturare informazioni dettagliate sulle componenti della pagina visitata dall'utente e sulle interazioni di quest'ultimo con il portale: i dati raccolti potrebbero avere utilità nell'ottimizzazione del layout e nell'usabilità del portale.
Resumo:
Approccio unificato alla gestione e alla valutazione del planning in stabilimenti e magazzini, presso Coca Cola HBC Italia
Resumo:
Scopo del presente elaborato è l'ottimizzazione preliminare di un sistema solare “fai da te” per l'accumulo di acqua calda sanitaria, pensato per applicazioni in paesi in via di sviluppo.
Resumo:
Riguarda la realizzazione di un modello per l'analisi prestazionale di un casello autostradale, in grado di valutare performance e livello di qualità erogato all'utenza in relazione al rapporto esistente tra domanda e offerta di servizio. Trattandosi di un varco autostradale si tratterà di analizzare un problema relativo ad un certo numero di veicoli in attesa di ricevere un servizio caratterizzato da tempi e modalità diverse a seconda della tipologia veicolare e della tipologia di esazione utilizzata. Il problema viene affrontato tramite la teoria delle code che permette la valutazione dei relativi parametri prestazionali. Partendo dallo studio dei casi più semplici di coda M/M/1 vengono fatte valutazioni sui tempi di servizio arrivando a identificare il modello M/G/1 come più appropriato per un tale problema. Viene poi illustrata l'impostazione del modello con input e output relativi. Il modello viene infine applicato a una stazione reale della rete per evidenziare le valutazioni che è possibile ottenere da un modello così realizzato.
Resumo:
Résumé: Par le biais de cette thèse, nous nous aventurons dans le monde des Villes invisibles d'Italo Calvino à travers un voyage qui nous portera à affronter des thèmes tels que l'insuffisance du langage pour décrire les multiples formes de la réalité ; l'importance de la relation entre l'oeil et l'esprit ; les instruments déployés par Italo Calvino pour atteindre son objectif: toucher du doigt l'essence même de la réalité. Pour ce faire, l'écrivain puisera dans une tradition séculaire d'oeuvres littéraires, y compris et surtout Ovide et ses Métamorphoses, qui fera l'objet dune étude plus poussée étant donné que Calvino et lui partagent la conviction que l'art et l'illusion qu'il comporte nous guident vers une réalité nouvelle. Nous finirons par l'étude de certains concepts récurrents dans la littérature en général, mais surtout dans celle de l'écrivain. Des thèmes comme l'échiquier, le labyrinthe ou encore la carte nous apparaissent comme autant de moyens employés par Calvino pour comprendre notre monde. Le tout à travers un voyage initiatique qui nous permettra non seulement de mieux comprendre la réalité dans laquelle nous vivons et par conséquent nous-même, mais aussi d'entrer dans l'esprit de l'auteur sans toutefois oublier que nous ne pouvons qu'effleurer la surface de ce dernier. Abstract: Through this thesis, we will enter the world of Italo Calvino's Invisible cities in a trip that will bring us to analyse subjects such as the language inadequacy when it comes to describing reality and its multiple forms ; the importance of the link between the eye and the mind ; the tools used by Italo Calvino in order to achieve his goal: reach the very essence of reality. To do so, the writer will make full use of a tradition that comes from centuries of literary books, included and most of all Ovid and his Metamorphoses, which we will study more deeply as Calvino shares with him the belief that art and illusion that derives from it, bring us towards a new reality. Finally, we will analyse some topics which are generally recurrent not only in literature, but also in Calvino's work. Topics such as chessboard, labyrinth, map that are may different ways used by Calvino to understand our world. All of this will take us through an initiatory trip that will allow us not only to better understand the reality we live in and therefore ourselves, but also to enter the writer's mind without however forgetting that we cannot but only scratch the surface of the latter.
Resumo:
Gli ammassi di galassie sono gli oggetti gravitazionalmente legati più grandi dell’Universo. Questi emettono principalmente in banda X tramite bremsstrahlung. Una frazione mostra anche emissione radio diffusa da parte di elettroni relativistici che spiraleggiano nel campo magnetico. Si possono classificare tre tipi di emissione: alon, relitti e mini-aloni radio (MH). I MH sono sorgenti radio su scale di ≥ 200 – 500 kpc, osservate al centro di ammassi caratterizzati dalla presenze di cool-core (CC). L’origine dei MH non è ancora chiara. Gli elettroni relativistici che emettono in banda radio hanno tempi di vita radiativi di molto inferiori a quelli necessari per diffondere sulle scale dell’emissione diffusa. Quindi non sono semplicemente iniettati dalle galassie presenti negli ammassi ed è necessario un meccanismo di accelerazione “in-situ” nell’ICM. I MH testimoniano la presenza di meccanismi che canalizzano parte del budget energetico disponibile nei CC nell’ICM.Quindi lo studio è importante per comprendere la fisica dell’ICM e l’interazione fra le componenti non termiche e termiche. I MH si formano attraverso la riaccelerazione delle particelle relativistiche ad opera della turbolenza del gas. L’origine di questa turbolenza tuttavia non è ancora ben compresa. Gli ammassi CC sono caratterizzati da un picco della brillanza X nelle regioni centrali e da un drop della temperatura verso il centro accompagnata da aumento della densità del gas. Si ritiene che questo sia dovuto al raffreddamento del gas che quindi fluisce nelle zone centrali. Recenti osservazioni in X risultan inconsistenti con il modello classico di CF, suggerendo la presenza di una sorgente di riscaldamento del gas su scale del core degli ammassi. Recentemente Zhuravleva (2014) hanno mostrato che il riscaldamento dovuto alla turbolenza prodotta dall'AGN centrale è in grado di bilanciare il processo di raffreddamento. Abbiamo assunto che la turbolenza responsabile del riscaldamento del gas è anche responsabile dell’accelerazione delle particelle nei MH. Nell’ambito di questo scenario ci si aspetta una correlazione tra la potenza del cooling flow, PCF, che è una misura del tasso di energia emessa dal gas che raffredda nei CC, e la luminosità radio, che è una frazione dell’energia della turbolenza che è canalizzata nell’accelerazione delle particelle. In questo lavoro di tesi abbiamo utilizzato il più grande campione disponibile di MH, allo scopo di studiare la connessione fra le proprietà dei MH e quelle del gas termico nei core degli ammassi che li ospitano. Abbiamo analizzato i dati di 21 ammassi e ricavato i parametri fisici all’interno del raggio di cooling e del MH. Abbiamo ricavato la correlazione fra luminosità radio, e PCF. Abbiamo trovato che le due quantità correlano in modo quasi-lineare confermando i risultati precedenti. Tale correlazione suggerisce uno stretto legame fra le proprietà del gas nei CC e l’origine dei MH.