949 resultados para Superconduttività Equazioni di London Modello Quantistico Macroscopico Quantizzazione del flusso


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo studio si esamina la ricostruzione di Porta Aurea a Ravenna, edificio di epoca romana ormai scomparsa ma di cui rimangono molti documenti sia a livello di tradizione storica locale che per quanto riguarda disegni di illustri architetti come Andrea Palladio. Il processo di ricostruzione si articola sull’uso di materiale distintamente catalogato a seconda di diversi gradi di incertezza. Per giungere alla costruzione sono state effettuate anche due campagne di rilievo con la tecnica di acquisizione del Laser Scanner Leica C10 all-in-one. La prima presso il Museo Nazionale di Ravenna, dove sono tutt’oggi conservati alcuni frammenti architettonici di pregio provenienti da Porta Aurea. Una seconda indagine di rilievo è stata invece effettuata presso le mura di Ravenna in Via di Porta Aurea ove rimangono i resti delle porzioni di mura o meglio torrioni verticali che incorniciavano il monumento ravennate. Sintesi finale di questo lavoro è il raggiungimento di un modello “possibile” ma comunque ideale desunto dall’intreccio di diverse fonti iconografiche al fine di una possibile fruizione museale presso lo stesso Museo Nazionale di Ravenna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene presentata un’analisi dettagliata sulla struttura di profili recettori di neuroni coinvolti nell’elaborazione visiva, con particolare attenzione per le cellule appartenenti alla corteccia visiva primaria (V1). Dopo aver illustrato brevemente il percorso effettuato dall’informazione visiva, costituito da retina, nucleo genicolato laterale e V1, vengono descritte la struttura e le principali caratteristiche di profili recettori dei neuroni appartenenti ad ognuno di questi livelli di elaborazione. Per modellare i profili recettori di cellule corticali in V1 si è deciso di utilizzare filtri bidimensionali realizzati mediante funzioni di Gabor nel dominio spaziale. Questo modello ha, infatti, il grande vantaggio di possedere alcune tra le maggiori proprietà dei profili recettori di neuroni appartenenti a V1: struttura del profilo recettore nello spazio (x,y), selettività in orientazione e in frequenza spaziale, indipendenza dalla fase dello stimolo. Viene successivamente presentato il concetto di campo di associazione visivo, mediante il quale sono determinate le caratteristiche principali (posizione spaziale ed orientazione) che diversi oggetti devono possedere per essere percepiti non come unità singole, ma come un unico elemento. I campi di associazione possono essere modellati mediante l’utilizzo del sistema di equazioni differenziali proposto da Citti-Sarti, le cui soluzioni sono curve integrali adatte a ricostruire la struttura dei campi di associazione, come proposti da Field, Hayes ed Hess. Diverse ipotesi sono state presentate su come cellule appartenenti a V1 siano in grado di realizzare simili campi di associazione, ed in particolare, da dove queste possano prendere le informazioni necessarie per farlo. Una di queste è quella sostenuta dai dati di Bosking et al., secondo i quali le connessioni intracorticali più fitte sono quelle tra neuroni non adiacenti tra loro, i cui profili recettori sono co-orientati (con la stessa orientazione preferenziale) e co-assiali (disposti lungo un asse del campo visivo che corrisponde all’orientazione preferenziale). L’analisi effettuata in questa tesi ha come obbiettivo proprio quello di ottenere informazioni utili su come cellule corticali siano legate alla fenomenologia dei campi di associazione. Come già detto, un filtro di Gabor bidimensionale può essere considerato un buon modello per profili recettori di questo tipo di cellule e quindi è possibile definirlo in maniera astratta come l’unità fondamentale nel processo di elaborazione visiva. Per questo motivo viene effettuata un’analisi di cross-correlazione tra un filtro di Gabor con una determinata orientazione e una famiglia di filtri di Gabor aventi n orientazioni. I risultati ottenuti sono stati trattati utilizzando la tecnica di soppressione dei non massimi, in modo da estrarre per ogni punto dell’immagine l’orientazione per la quale si ottiene la risposta massima. Successivamente, dai dati è stato possibile calcolare delle curve integrali simili a quelle ottenute dal modello differenziale proposto da Citti-Sarti. I risultati ottenuti da questa analisi si sono rivelati utili per comprendere più nel dettaglio i processi di elaborazione dei neuroni corticali, ed in particolare, per capire in che modo le informazioni necessarie per la realizzazione di strutture complesse ed articolate come quelle dei campi di associazione, siano già contenute intrinsecamente all’interno di ogni cellula corticale, unità fondamentale dell’elaborazione visiva.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca analizza la forma di Stato e di Governo e si focalizza nel ruolo importante del Capo dello Stato in funzione alla separazione dei poteri e consolidamento della democrazia in una Repubblica Parlamentare. Questa ricerca comparativa analizza l’evoluzione della forma di governo in Italia e Albania. La ricerca analizza nei dettagli l’evoluzione della forma di Governo, focalizzandosi all’istituzione del Capo dello Stato in Albania dall’indipendenza (1912), evidenziando il ruolo dell’Italia in quest’evoluzione. In maniera comparativa si analizza l’evoluzione dell’istituzione del Capo dello Stato in Italia fin dalla sua unita e gli altri sviluppi i quali servirono come modello per l’Albania, evidenziano l’influenza a livello internazionale che ebbe l’Italia per l’indipendenza dell’Albania, che portò al consolidamento dei loro rapporti. Questa ricerca analizza la collaborazione di questi due Stati la quale culmino con la loro Unione Personale identificandosi nello stesso Capo di Stato. La ricerca inoltre evidenzia che come questa fase sia stata superata dalla II Guerra Mondiale e la Guerra Fredda che vide questi Stati a sviluppare diverse forme di Governo. Per di più la ricerca evidenzia la trasformazione politico-istituzionale e il processo di cambiamento dell’Albania dopo la caduta del muro di Berlino che segno la fine del sistema comunista, che vide l’Albania ad adottare il modello Italiano per il Capo dello Stato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato viene presentato lo studio ed ottimizzazione della geometria del serpentino di uno scambiatore di calore per la produzione di acqua sanitaria di tipo Puffer. L’analisi volta all’ottimizzazione del serpentino è stata eseguita con l’obiettivo di soddisfare i vincoli di progetto dello scambiatore, ovvero la portata elaborata e la temperatura di uscita dell’acqua sanitaria dallo scambiatore, ma cercando di ridurre la superficie del serpentino e quindi il costo dello scambiatore stesso, in particolare agendo su parametri geometrici quali il passo dell’elica H, il diametro dell’avvolgimento Db ed il diametro del tubo d. A tal fine è stato sviluppato un modello del processo di scambio termico all’interno dello scambiatore Puffer basato sulle equazioni di bilancio di energia e raffinato attraverso correlazioni teorico/sperimentali reperite in letteratura. In una prima fase l’ottimizzazione è stata svolta con l’ulteriore vincolo progettuale d=41mm e Db=510mm, al fine di garantire maggiore flessibilità nell’utilizzo del serpentino per altre tipologie di scambiatori. In questo caso, si è giunti ad un risparmio del 14% sull’area di scambio termico del serpentino rispetto al modello tuttora in produzione, quantificabile in una riduzione dei costi del 19% sul costo totale del Puffer. In una seconda fase si è proceduto ad una ottimizzazione libera dai vincoli d e Db, con l’obiettivo di valutare la massima riduzione di area di scambio termico del serpentino, stimata in circa il 23% nel caso in cui sia possibile in futuro valutare modifiche sostanziali alla geometria dello scambiatore. Lo studio completato dall’analisi dell’isolamento del corpo dello scambiatore, finalizzata a ridurre le dispersioni verso l’ambiente esterno. In particolare è stato valutato l’utilizzo di Isolmix, in alternativa all’esistente isolamento in pannelli di poliuretano, dimostrando come sia possibile ottenere una ulteriore riduzione del materiale impiegato e quindi dei costi di realizzazione dello scambiatore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi di dottorato verte sull'individuazione di politiche industriali atte ad implementare il mercato dei prodotti a denominazione di origine. Inevitabilmente, l’analisi economica dei prodotti agroalimentari tipici di qualità implica anche l’approfondimento e l’individuazione, delle problematiche connesse con la creazione di un valore addizionale per il consumatore, rispetto a quello dei prodotti standardizzati. Questo approccio richiama l’attenzione, da una parte, sulle caratteristiche della domanda e sulla disponibilità del consumatore a riconoscere e apprezzare questo plus-valore, dall’altra sulle strategie che l’offerta può attivare per conseguire un premium price rispetto al prodotto standardizzato. Le certificazioni comunitarie Dop, Igp e Stg oltre che il marchio di prodotto biologico racchiudono, solitamente, tali dinamiche valoriali ma sono tutt’oggi poco conosciute dai consumatori. Diversi studi internazionali dimostrano, infatti, che la maggioranza dei cittadini comunitari ignorano il significato delle certificazioni di qualità. L’ipotesi di fondo di questo studio si basa sulla possibilità di fidelizzare questi marchi con i brand della grande distribuzione già affermati, come quello di Coop. Analizzare gli effetti dell’introduzione di prodotti private label a denominazione di origine nel mercato della grande distribuzione organizzata italiana ci permetterebbe di comprendere se questo segmento di mercato può aiutare il settore delle Dop/Igp. Questo studio ha cercato di verificare se il prodotto private label a denominazione di origine, riesca a sfruttare il doppio binario di fiducia rappresentato dal marchio comunitario unito a quello dell’impresa di distribuzione. Per comprendere la propensione del consumatore a spendere di più per questi prodotti, abbiamo utilizzato l’analisi dell’elasticità della domanda sul prezzo dei dati scanner fornitici da Coop Adriatica. Siamo riusciti a dimostrare tale positivo connubio confermato anche da una indagine demoscopica effettuata ad hoc sui consumatori.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato ha avuto come obiettivo la modifica di un modello matematico di potenziale d’azione ventricolare umano per migliorare la relazione che lega la durata del potenziale d’azione all’incremento degli intervalli diastolici, al fine di riprodurre correttamente i risultati sperimentali noti in letteratura. Ruolo principe nell’analisi e nell’implementazione di tale modello è stato quello dello ione calcio, coinvolto in numerosi processi chimici all’interno della cellula cardiaca, e responsabile anche della sua contrazione. Tutte le modifiche effettuate sono state fatte preservando la dipendenza inversa tra la durata del potenziale d’azione e le variazioni di calcio extracellulare, che costituiva il punto di forza del modello considerato rispetto alla sua versione originale. Le modifiche effettuate hanno riguardato in parte la struttura del modello (compartimenti, volumi) e in parte il calcium handling, ovvero la gestione del Ca2+ all’interno della cellula, in termini di flussi e correnti. Il modello così ottenuto, denominato “newORk”, è stato validato rispetto a numerosi protocolli sperimentali (sia di voltage-clamp, sia di current-clamp) presenti in letteratura e i risultati di simulazione hanno dimostrato un comportamento coerente con i risultati in vitro. In particolare la risposta del modello al protocollo S1S2, che non era fisiologica nel modello precedente, viene adesso riprodotta correttamente dal nuovo modello, presentando un aumento dell’APD all’aumentare dell’intervallo diastolico considerato. Il modello qui descritto può quindi essere ritenuto un importante, per quanto specifico, miglioramento nella descrizione matematica della elettrofisiologia cardiaca umana e potrà essere utilizzato per esplorare contesti clinici in cui le concentrazioni di calcio nel sistema cardiocircolatorio si modificano, come per esempio la terapia dialitica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato di tesi viene presentata la comparazione tra due codici CFD, rispettivamente Fluent e OpenFOAM, mediante simulazioni che sono alla base di uno studio numerico di flusso attorno ad un pantografo per treno ad alta velocità. Si è apprezzato quindi la facilità d’uso di un software venduto tramite licenza e la difficoltà di un software open source come OpenFOAM, il quale però ha vantaggi in termini di adattamento ai casi più specifici. Sono stati quindi studiati due casi, scambio termico in regime laminare attorno ad un cilindro bidimensionale e flusso turbolento completamente sviluppato in un canale. Tutte le simulazioni numeriche hanno raggiunto convergenza e sono state validate positivamente mediante confronto con dati sperimentali. Il primo caso prevede un cilindro investito da un flusso a temperatura minore rispetto alla temperatura della superficie del cilindro; per avere più riscontri, sono state condotte diverse prove a valori differenti del numero di Prandtl, e per ogni simulazione è stato ricavato il corrispettivo numero di Nusselt, successivamente comparato con i dati sperimentali per la validazione delle prove. A partire dalla creazione della griglia di calcolo, è stato effettuato uno studio del fenomeno in questione, creando così una griglia di calcolo sviluppata a valle del cilindro avente maggior densità di celle a ridosso della parte del cilindro. In aggiunta, svolgendo le prove con schemi numerici sia del primo che del secondo ordine, si è constatata la miglior sensibilità degli schemi numerici del secondo ordine rispetto a quelli del primo ordine. La seconda tipologia di simulazioni consiste in un flusso turbolento completamente sviluppato all’interno di un canale; sono state svolte simulazioni senza e con l’uso delle wall functions, e quindi usate griglie di calcolo differenti per i due tipi di simulazioni, già disponibili per entrambi i software. I dati ottenuti mostrano uno sforzo computazionale maggiore per le simulazioni che non prevedono l’uso delle wall functions, e quindi una maggiore praticità per le simulazioni con le wall functions. Inoltre, le simulazioni di questo secondo caso sono state svolte con diversi modelli di turbolenza; in Fluent sono stati utilizzati i modelli k-ε e RSM mentre in OpenFOAM è stato utilizzato solo il modello k-ε in quanto il modello RSM non è presente. La validazione dei risultati è affidata alla comparazione con i dati sperimentali ricavati da Moser et all mediante simulazioni DNS, mettendo in risalto la minor accuratezza delle equazioni RANS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo dello studio è comprendere i fenomeni alla base della fiducia degli utenti verso l'enciclopedia online Wikipedia. Per farlo è necessario prima di tutto comprendere e modellizzare l'organizzazione della struttura dei processi socio-produttivi sottostanti alla produzione del contenuto di Wikipedia, procedendo quindi nel verificare empiricamente e descrivere le capacità di autocorrezione della stessa. Oltre a quelli utilizzati in questo studio, saranno anche descritti gli approcci e i risultati trattati in letteratura, riportando i principali studi che nel corso degli anni hanno affrontato questi argomenti, sebbene mantenendoli indipendenti. Per comprendere la struttura della community degli editor di Wikipedia, si è ipotizzata l'esistenza di un modello di tipo Core-Periphery. Per studiare il modello sono state eseguite delle analisi su dati derivanti da un campione di pagine della versione italiana di Wikipedia. I risultati ottenuti dall'analisi di queste informazioni rappresentano le basi utilizzate per la selezione delle pagine oggetto dell'iniezione degli errori, costituendo un metodo per stimare le diverse probabilità di autocorrezione per ciascuna pagina. Per quanto riguarda le capacità di resilienza di Wikipedia, i risultati sono ricavati utilizzando un approccio empirico. Questo consiste nell'inserimento di errori all'interno del campione di pagine sotto specifici vincoli metodologici per poi valutare in quanto tempo e con quali modalità questi errori vengono corretti. E' stata effettuata un'analisi specifica per la scelta delle tipologie di errore e delle variabili da considerare nell'inserimento di questi. Questa analisi ha portato alla definizione di 2 esperimenti tra loro distinti, i cui risultati portano ad interessanti conclusioni sia visti separatamente che combinati tra loro. Sulla base dei risultati di questi esperimenti è stato possibile discutere sulle capacità di autocorrezione del sistema, elemento chiave nello studio delle dinamiche della fiducia verso Wikipedia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi eseguito comprende la ricerca sulle problematiche arginali e le tipologie di intervento per la protezione idraulica del territorio. Convenzione n.37/2010 tra AdBPo e Università di Bologna. Campagna di indagini eseguite e caratterizzazione del suolo. Caratterizzazione geologica. Caratterizzazione del modello geotecnico della “sez.6_GU”, che corrisponde alla sezione “S38C” del catasto delle arginature maestre, tramite l’utilizzo delle funzioni di Excel, ed elaborazione dei risultati delle prove con la determinazione dei valori statistici dei vari parametri geotecnici, del livello di falda e delle proprietà fisico-meccaniche dei terreni. Risultati delle prove CPTU U16BR, U17BR e U18BR. Creazione del modello utilizzando dei codici agli elementi finiti Plaxis e GeoStudio per la verifica di stabilità dell’argine soggetto ad una portata di piena con tempo di ritorno Tr pari a 200 anni. Verifiche di stabilità: analisi e risultati della sezione completa per la verifica della stabilità globale; della sezione ridotta per potersi concentrare sul sistema argine-substrato di fondazione (verifica locåale in assenza di area golenale); della sezione ridotta con falda a piano campagna (per individuare se la rottura avviene per il moto di filtrazione oppure per la deformazione del modello soggetto ai carichi agenti); sezione con substrato di fondazione ridotto (per verificare la presenza di eventuali fenomeni di sifonamento modellabili nei software).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Sorafenib è l’unica terapia sistemica approvata per l’epatocarcinoma (HCC) avanzato. Tuttavia, molti tumori sviluppano resistenze. La chemioterapia metronomica sembrerebbe avere un effetto antiangiogenetico. La Capecitabina metronomica è potenzialmente efficace nell’HCC avanzato. Lo scopo dello studio è stato valutare il comportamento di un modello murino di HCC sottoposto a Sorafenib, Capecitabina e terapia combinata, per dimostrarne un eventuale effetto sinergico. Il modello è stato creato in topi scid mediante inoculazione sottocutanea di 5 milioni di cellule HuH7. I topi sono stati suddivisi in 4 gruppi: gruppo 1 sottoposto a terapia con placebo (9 topi), gruppo 2 a Sorafenib (7 topi), gruppo 3 a Capecitabina (7 topi) e gruppo 4 a terapia combinata Sorafenib+Capecitabina (10 topi). I topi sono stati studiati al giorno 0 e 14 con ecografia B-mode e con mezzo di contrasto (CEUS). Al giorno 14 sono stati sacrificati e i pezzi tumorali sono stati conservati per l’analisi Western Blot. Un topo del gruppo 1 e 4 topi del gruppo 4 sono morti precocemente e quindi sono stati esclusi. Il delta di crescita tumorale al giorno 14 rispetto al giorno 0 è risultato di +503 %, +158 %, +462 % e +176 % rispettivamente nei 4 gruppi (p<0.05 tra i 4 gruppi, tra il gruppo 1 e 2, tra il gruppo 1 e 4, tra il gruppo 2 e 3, tra il gruppo 3 e 4). Alla CEUS non si sono evidenziate differenze statisticamente significative nei cambiamenti di perfusione tumorale al giorno 14 nei 4 gruppi. L’analisi Western Blot ha mostrato livelli di VEGFR-2 inferiori nel gruppo dei topi trattati con Sorafenib. La terapia di associazione di Sorafenib e Capecitabina non comporta un beneficio, in termini di riduzione della crescita tumorale, in un modello murino di HCC rispetto al solo Sorafenib. Inoltre, può essere sospettato un incremento di tossicità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi si propone di analizzare l'evoluzione dinamica di una faglia caratterizzata da due asperità complanari contraddistinte da diverso attrito (modello asimmetrico) e da accoppiamento viscoelastico. Il modello reologico assunto per la crosta terrestre è di tipo Maxwelliano: lo sforzo trasferito da un'asperità all'altra in occasione degli scorrimenti delle asperità stesse subisce parziale rilassamento durante il periodo intersismico, con conseguente anticipo o ritardo degli eventi sismici successivi. Lo studio del sistema viene condotto tramite un modello di faglia discreto, in cui lo stato della faglia è determinato da tre variabili che rappresentano i deficit di scorrimento delle asperità e il loro accoppiamento viscoelastico. Scopo principale della tesi è quello di caratterizzare i differenti modi dinamici del sistema, determinando equazioni del moto e orbite nello spazio delle fasi e confrontando i risultati ottenuti con i modelli precedentemente sviluppati, con particolare riferimento al caso simmetrico (asperità caratterizzate dallo stesso attrito) studiato in [Amendola e Dragoni (2013)] e al caso di accoppiamento puramente elastico analizzato in [Dragoni e Santini (2012)]. Segue l'applicazione del modello all'evento sismico verificatosi in Alaska nel 1964, generato dallo scorrimento delle asperità di Kodiak Island e Prince William Sound: lo studio verte in particolare sulla valutazione dello stato di sforzo sulla faglia prima e dopo il terremoto, la determinazione della funzione sorgente (moment rate) a esso associata e la caratterizzazione della possibile evoluzione futura del sistema. Riferimenti bibliografici Amendola, A. & Dragoni, M., “Dynamics of a two-fault system with viscoelastic coupling”. Nonlinear Processes in Geophysics, 20, 1–10, 2013. Dragoni, M. & Santini, S., “Long-term dynamics of a fault with two asperities of different strengths”. Geophysical Journal International, 191, 1457–1467, 2012.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente lavoro di tesi, in seguito ad acquisizioni di dati effettuate nella sala prove del "Laboratorio di Macchine e Propulsione" della Scuola di Ingegneria e Architettura di Forlì sul turboshaft Allison 250 C18, in una prima fase sono state ricavate le mappe prestazionali dei singoli componenti del motore, elaborando i dati sperimentali in ambiente MatLab. Le acquisizioni sono state effettuate mediante l'utilizzo di sensori di pressione, temperatura e velocità installati in precedenza sul motore e opportunamente calibrati. In seguito alla realizzazione delle mappe prestazionali, si è passati all'allestimento completo di un modello dinamico in ambiente Simulink, del motore Allison 250 C18. Tale modello riproduce, in opportuni blocchi, ciascun componente facente parte della motorizzazione. Ogni blocco riceve in ingresso le caratteristiche fisiche di interesse del flusso (temperatura, pressione, calore specifico a pressione costante e gamma) provenienti dal blocco precedente tramite un "filo", le rielabora al suo interno risolvendo le equazioni tipiche di ciascun componente e interpolando le mappe di prestazione ricavate precedentemente in MatLab, e le invia come input al blocco successivo o in retroazione ai blocchi precedenti. In ogni blocco è stato realizzato un sistema di dinamica di pressione che, ad ogni istante, risolve un'equazione differenziale dipendente dalla differenza di portata a monte e a valle di un componente e dal volume di controllo, che restituisce il valore di pressione in uscita proporzionale alla variazione di portata stessa. Nel presente lavoro di tesi si è cercato di stabilizzare questo complesso sistema in una condizione di progetto, fissata a 30000 rpm del gruppo gas generator. Un sistema di controllo del numero di giri tramite variazione di portata di combustibile è stato realizzato al fine di poter, in futuro, far funzionare il modello anche fuori dalla condizione di progetto e riuscire a simulare l'andamento delle prove sperimentali reali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio di tesi che segue analizza un problema di controllo ottimo che ho sviluppato con la collaborazione dell'Ing. Stefano Varisco e della Dott.ssa Francesca Mincigrucci, presso la Ferrari Spa di Maranello. Si è trattato quindi di analizzare i dati di un controllo H-infinito; per eseguire ciò ho utilizzato i programmi di simulazione numerica Matlab e Simulink. Nel primo capitolo è presente la teoria dei sistemi di equazioni differenziali in forma di stato e ho analizzato le loro proprietà. Nel secondo capitolo, invece, ho introdotto la teoria del controllo automatico e in particolare il controllo ottimo. Nel terzo capitolo ho analizzato nello specifico il controllo che ho utilizzato per affrontare il problema richiesto che è il controllo H-infinito. Infine, nel quarto e ultimo capitolo ho specificato il modello che ho utilizzato e ho riportato l'implementazione numerica dell'algoritmo di controllo, e l'analisi dei dati di tale controllo.