905 resultados para porosità, PME, termodinamica del non equilibrio, modello iperbolico e propagazione ondosa, secondo suono
Resumo:
Gli organismi biologici mostrano ricorrenti dinamiche di auto-organizzazione nei processi morfogenetici che sono alla base di come la materia acquisisce gerarchia e organizzazione.L’omeostasi è la condizione con la quale un corpo raggiunge il proprio equilibrio (termico, pressione, ecc.); un processo attraverso il quale questi sistemi stabilzzano le reazioni fisiologiche. Una delle caratteristiche fondamentali esibite da tali organismi è la capacità della materia di instaurare processi di auto-organizzazione, responsabile dei processi di ottimizzazione che guidano all’uso efficiente dell’energia nella lotta per la sopravvivenza. Questa ottimizzazione non mira al raggiungimento di un risultato globale deterministico e “chiuso” (precedentemente stabilito e poi perseguito ad ogni costo), quanto piuttosto al raggiungimento di un’efficienza di processi locali con obiettivi multipli e necessità divergenti; tali processi interagiscono organizzando sistemi nei quali proprietà peculiari uniche emergono dalle interazioni descritte. Le esigenze divergenti non sono negoziate sulla base di un principio di esclusività (una esigenza esclude o elimina le altre) ma da un principio di prevalenza, dove le necessità non prevalenti non cessano di esistere ma si modificano in funzione di quelle prevalenti (il proprio campo di espressione è vincolato dai percorsi tracciati in quello delle esigenze prevalenti). In questa tesi si descrive un’applicazione ad uno specifico caso di studio di progettazione architettonica: un parco con spazi polifunzionali nella città di Bologna. L’obiettivo principale del progetto Homeostatic Pattern è quello di dimostrare come questo tipo di processi possano essere osservati, compresi e traslati in architettura: come per gli organismi biologici, in questo progetto gli scambi di materia ed energia (stabilità, respirazione, porosità alla luce) sono regolati da sistemi integrati efficienti piuttosto che da raggruppamenti di elementi mono-ottimizzati. Una specifica pipeline di software è stata costituita allo scopo di collegare in modo bidirezionale e senza soluzione di continuità un software di progettazione parametrica generativa (Grasshopper®) con software di analisi strutturale ed ambientale (GSA Oasys®, Autodesk® Ecotect® analysis), riconducendo i dati nella stessa struttura attraverso cicli di feedback. Il sistema così ottenuto mostra caratteristiche sia a scala macroscopica, come la possibilità di utilizzo della superficie esterna che permette anche un’estensione dell’area verde (grazie alla continuità della membrana), sia alla scala del componente, come la propria capacità di negoziare, tra le altre, la radiazione solare e la modulazione della luce, così come la raccolta capillare delle acque meteoriche. Un sistema multiperformante che come tale non persegue l’ottimizzazione di una singola proprietà ma un miglioramento complessivo per una maggiore efficienza.
Resumo:
Satellite SAR (Synthetic Aperture Radar) interferometry represents a valid technique for digital elevation models (DEM) generation, providing metric accuracy even without ancillary data of good quality. Depending on the situations the interferometric phase could be interpreted both as topography and as a displacement eventually occurred between the two acquisitions. Once that these two components have been separated it is possible to produce a DEM from the first one or a displacement map from the second one. InSAR DEM (Digital Elevation Model) generation in the cryosphere is not a straightforward operation because almost every interferometric pair contains also a displacement component, which, even if small, when interpreted as topography during the phase to height conversion step could introduce huge errors in the final product. Considering a glacier, assuming the linearity of its velocity flux, it is therefore necessary to differentiate at least two pairs in order to isolate the topographic residue only. In case of an ice shelf the displacement component in the interferometric phase is determined not only by the flux of the glacier but also by the different heights of the two tides. As a matter of fact even if the two scenes of the interferometric pair are acquired at the same time of the day only the main terms of the tide disappear in the interferogram, while the other ones, smaller, do not elide themselves completely and so correspond to displacement fringes. Allowing for the availability of tidal gauges (or as an alternative of an accurate tidal model) it is possible to calculate a tidal correction to be applied to the differential interferogram. It is important to be aware that the tidal correction is applicable only knowing the position of the grounding line, which is often a controversial matter. In this thesis it is described the methodology applied for the generation of the DEM of the Drygalski ice tongue in Northern Victoria Land, Antarctica. The displacement has been determined both in an interferometric way and considering the coregistration offsets of the two scenes. A particular attention has been devoted to investigate the importance of the role of some parameters, such as timing annotations and orbits reliability. Results have been validated in a GIS environment by comparison with GPS displacement vectors (displacement map and InSAR DEM) and ICEsat GLAS points (InSAR DEM).
Resumo:
La tesi tratta alcuni dei principali filtri di diffusione non lineari per il problema di denoising di immagini. In particolare pertendo dalla formulazione del problema come minimizzazione di un funzionale introduce modelli allo stato dell'arte come il filtro Lineare, di Perona Malik, alle Variazioni Totali e per Curvatura; infine un nuovo modello diffusivo sviluppato dal prof.Antonio Marquina è per la prima volta applicato al problema di denoising. Seguono numerosi schemi numerici alle differenze finite per risolverli, che generano procedimenti iterativi espliciti, impliciti e AOS. Verrà analizzato per la prima volta per il problema di denoising uno schema conservativo al prim'ordine e di ordine superiore, dopo evere proposto una modifica per rendere idoneo la funzione diffusività. Infine vi è un ampio capitolo con considerazioni numeriche e visive sui risultati sperimentali ottenuti.
Resumo:
Negli ultimi decenni la Politica Agricola Comune (PAC) è stata sottoposta a diverse revisioni, più o meno programmate, che ne hanno modificato gli obiettivi operativi e gli strumenti per perseguirli. In letteratura economica agraria sono state eseguite diverse ricerche che affrontano analisi ex-ante sui possibili impatti delle riforme politiche, in particolare al disaccoppiamento, riguardo all’allocazione dei terreni alle diverse colture e all’adozione di tecniche di coltivazione più efficienti. Ma tale argomento, nonostante sia di grande importanza, non è stato finora affrontato come altri temi del mondo agricolo. Le principali lacune si riscontrano infatti nella carenza di analisi ex-ante, di modelli che includano le preferenze e le aspettative degli agricoltori. Questo studio valuta le scelte di investimento in terreno di un’azienda agricola di fronte a possibili scenari PAC post-2013, in condizioni di incertezza circa le specifiche condizioni in cui ciascuno scenario verrebbe a verificarsi. L’obiettivo è di ottenere indicazioni utili in termini di comprensione delle scelte di investimento dell’agricoltore in presenza di incertezza sul futuro. L’elemento maggiormente innovativo della ricerca consiste nell’applicazione di un approccio real options e nell’interazione tra la presenza di diversi scenari sul futuro del settore agricolo post-2013, e la componente di incertezza che incide e gravita su di essi. La metodologia adottata nel seguente lavoro si basa sulla modellizzazione di un’azienda agricola, in cui viene simulato il comportamento dell’azienda agricola in reazione alle riforme della PAC e alla variazione dei prezzi dei prodotti in presenza di incertezza. Mediante un modello di Real Option viene valutata la scelta della tempistica ottimale per investire nell’acquisto di terreno (caratterizzato da incertezza e irreversibilità). Dai risultati emerge come in presenza di incertezza all’agricoltore convenga rimandare la decisione a dopo il 2013 e in base alle maggiori informazioni disponibili eseguire l’investimento solo in presenza di condizioni favorevoli. La variazione dei prezzi dei prodotti influenza le scelte più dell’incertezza dei contributi PAC. Il Real Option sembra interpretare meglio il comportamento dell’agricoltore rispetto all’approccio classico del Net Present Value.
Resumo:
L’oggetto del nostro studio è il Magazzino del sale detto “Darsena” di Cervia. Durante l’elaborazione della tesi sono state affrontate diverse tematiche. La nostra attenzione è stata concentrata inizialmente sullo studio della Città Vecchia e sulla fondazione della Nuova, in rapporto alla nascita del comparto dei magazzini del sale, di cui il Darsena fa parte, e sulle trasformazioni che il manufatto ha subito nel tempo per effetto di questi cambiamenti. Siamo giunte fino all’ultimo, e più rilevante, intervento ad opera dell’Architetto Giancarlo De Carlo, che ha cambiato profondamente la spazialità interna dell’edificio. Questa premessa ha indirizzato lo studio della consistenza dell’edificio e del suo stato di conservazione, riflettendo sulla diversità e convivenza di nuovo e antico. Ci siamo proposte in seguito di intervenire sul manufatto con un progetto di restauro conservativo, accompagnato da una nuova destinazione d’uso che permetta all’edificio il suo riuso. Questa proposta si espande all’esterno dell’edificio, verso un progetto per il comparto del sale.
Resumo:
Il fenomeno del collegamento contrattuale prevede la presenza di due o più contratti, diversi e distinti, che, pur caratterizzati dagli elementi e dalla disciplina propri di ognuno, risultano coordinati teleologicamente da un nesso di reciproca dipendenza, in modo che le vicende dell’uno si trasmettono all’altro, influenzandone la validità e l’efficacia. Tale nozione è il frutto dell’elaborazione della dottrina e della giurisprudenza, poiché la disciplina positiva difetta di previsioni recanti la definizione di operazioni in cui si ricorra all’impiego di più contratti in vista di uno scopo economico unitario. Fra le molteplici classificazioni realizzate in relazione a tale strumento, la tipologia che è oggetto di analisi nel presente lavoro è espressione dell’autonomia contrattuale dei contraenti che istituiscono fra i negozi un nesso bilaterale, funzionale e volontario. I presupposti del fenomeno de quo sono, allora, rappresentati dalla necessaria intenzione delle parti di attuare il collegamento, del vincolo che viene creato in concreto e, soprattutto, dal fine pratico unitario ed ulteriore, che esse intendono perseguire coordinando i vari atti. Da qui, l’inquadramento di siffatta figura di collegamento nel fenomeno dell’atipicità contrattuale, frutto dell’attività creativa dei privati di autoregolamentazione dei propri interessi. Dottrina e giurisprudenza, in particolare, reputano il collegamento un meccanismo che agisce sul piano degli effetti dei contratti. Infatti, ogni negozio coinvolto, pur conservando una causa autonoma, è finalizzato ad un unico regolamento di interessi, di talché le vicende che investono uno dei negozi possono ripercuotersi sull’altro (che in sé considerato è immune da vizi) e, pertanto, tutti i contratti simul stabunt simul cadent. In definitiva, così opinando, le patologie che riguardano un atto finiscono per condizionare non solo l’esecuzione, ma anche la validità dell’altro. Successivamente, l’indagine si incentra sull’esegesi dei rari interventi normativi, quasi esclusivamente ascrivibili alla legislazione speciale, che trattano del meccanismo de quo e che si pongono nel solco di quanto affermato dagli interpreti. Muovendo, poi, dal presupposto che l’ordinamento riconosce ai contraenti il potere di dar vita ad autodeterminazioni strutturalmente semplici ovvero come in tal caso più articolate, si cerca di dimostrare che in tali fattispecie l’apprezzamento non va condotto sul singolo contratto, bensì sull’operazione economica unitariamente considerata, come risultante dal collegamento fra più contratti. Infatti, una volta accertata l’interdipendenza funzionale delle diverse prestazioni, l’analisi su di esse assume un rilievo diverso se è compiuta per valutare l’assetto complessivo dell’intera operazione giuridico-economica posta in essere dalle parti: solo a fronte di una valutazione globale dei diritti e degli obblighi, anche in termini economici, si può appurare la reale portata giuridico-economica dell’affare. In forza di tali premesse può, quindi, procedersi ad un compiuto approfondimento del possibile ruolo svolto dalle clausole generali di buona fede ed equilibrio, quali strumenti di garanzia della giustizia negli scambi. Ne consegue l’abbandono di una prospettiva atomistica e, tenendo conto dell’unicità degli interessi perseguiti che vanno oltre le cause proprie dei singoli contratti collegati, si tenta di superare l’assunto per il quale il difetto che inficia uno dei contratti comporti l’automatica caducazione dell’altro. In una visione complessiva dell’operazione, la verifica attinente all’equilibrio tra i singoli atti nei quali essa si svolge ed alla sua possibile alterazione a causa di circostanze sopravvenute o originarie potrebbe sovvertire le certezze interpretative sotto il profilo della disciplina del collegamento, degli effetti dello stesso e delle patologie.
Resumo:
La ricerca riguarda il rapporto fra il diritto di cronaca e i diritti degli individui che vengono coinvolti dalla diffusione dell’informazione sui mezzi di comunicazione, con particolare riferimento al settore audiovisivo. La cronaca, rientrando fra le manifestazioni del pensiero (art. 21 Cost.), costituisce un diritto di libertà e, come tale, non può essere in alcun modo vincolata in funzione di uno scopo sociale. Tuttavia dall’esercizio di essa discende il risultato (non scopo!) vantaggioso per la collettività e per la vita dello Stato democratico. L’ordinamento cerca quindi un punto di equilibrio fra la cronaca e gli altri valori della persona confliggenti e di pari rango; ciò avviene attraverso il bilanciamento in concreto operato dalla giurisprudenza (secondo i principi della sentenza del decalogo) e attraverso la disciplina dei mezzi, al fine di garantire il “diritto ad essere informati” espresso dall’art.10 della CEDU. La disciplina dei mezzi si giustifica in ragione della capacità di influenzare il pubblico e della capacità pervasiva di essi, in particolare del mezzo televisivo che, nonostante l’espansione di internet, conserva ad oggi il primato. Per quanto riguarda gli strumenti di tutela previsti per le ipotesi di lesioni derivanti dalla informazione, ci si sofferma sulla rettifica.(art.32, dlgs 177/2005). Viene effettuato un raffronto con l’analoga figura prevista nella stampa (legge 47/1948), riscontrando che nell’audiovisivo lo strumento è applicabile solo in caso di notizie oggettivamente false che abbiano leso gli interessi morali del soggetto, escludendo la valutazione soggettiva del richiedente, prevista invece per la stampa. Viene ricercata la ratio della differenziazione normativa dei due settori, anche attraverso l’analisi dei provvedimenti dell’AGCOM. In ragione dell’obiettivo di garantire l’obiettività e il pluralismo informativo perseguito dal legislatore attraverso la disciplina dell’audiovisivo, la rettifica, dalla duplice valenza, vede qui prevalere l’aspetto di tutela dell’oggettività notiziale, rispetto alla tutela dell’individuo, realizzata di riflesso, col ripristino della verità.
Resumo:
Scopo della tesi è studiare la co-evoluzione nei mercati finanziari tra agenti eterogenei, analizzare l’andamento dei prezzi delle azioni e la ricchezza individuale di ciascun agente dopo un periodo di tempo non specificato. Il mercato finanziario è costituito da un numero arbitrario di agenti eterogenei che investono sui titoli parte della loro ricchezza adottando strategie che vadano ad ottimizzare il ritorno economico dopo ogni periodo di tempo. Consideriamo un sistema dinamico con uno scheletro deterministico. Il sistema che descrive questo modello è un sistema di equazioni non lineari e studiamo le condizioni di stabilità per ciascun stato di equilibrio. Consideriamo in particolare due tipologie di agenti; Il primo, cosiddetto cartista ed il secondo, cosiddetto fondamentalista. Ci riferiamo poi alla teoria delle biforcazioni, cioè allo studio del cambio di stabilità del sistema rispetto ad un parametro. Chi tra i due agenti avrà la meglio?? A quali condizioni sopravviverà l’uno o l’altro?
Resumo:
Introduzione Una delle maggiori difficoltà durante la produzione dei prodotti surgelati riguarda la loro stabilizzazione e il mantenimento della catena del freddo durante tutte le fasi del processo produttivo. Tramite il seguente lavoro si propone di determinare a che temperatura e dopo quanto tempo, diverse tipologie di confezioni di surgelati (pisellini, melanzane e spinaci), raggiungono la temperatura ipotetica di inizio di scongelamento. Con lo scopo di analizzare, in maniera rapida ed economica, molte diverse combinazioni di tempo - temperatura dell’ambiente di produzione di diverse tipologie di prodotti surgelati (pisellini, melanzane e spinaci), sono stati sviluppati dei modelli numerici capaci di descrivere i fenomeni termici che intervengono durante il confezionamento dei prodotti. Materiali e Metodi Il modello sviluppatotiene conto sia dei fenomeni di convezione naturale che avvengono tra la superficie della confezione e il flusso esterno di aria, sia dei fenomeni di conduzione che interessano l'interno della confezione, la confezione (busta) ed il piano di appoggio. In figura vengono schematizzati i fenomeni termici presi in esame. La geometria del modelli rispecchia le reali dimensioni delle confezioni dei prodotti presi in esame. La mesh dei modelli 3D è costituita da elementi triangolari, posizionati sulle boundaries, tetraedrici e prismatici, posizionati in tutto il restante dominio. Trattandosi di trasferimenti di calore per superfici, nelle zone di interfaccia è stata adottata una mesh particolarmente fine. In figura viene riportata la mesh dell'intera geometria ed un particolare della mesh interna dove, i diversi colori indicano elementi tetraedrici o prismatici di diverse dimensioni. Per ottenere un accurato modello numerico è necessario descrivere nel modo più realistico possibile i materiali coinvolti, quindi è stato necessario descrivere i prodotti surgelati tramite le loro reali proprietà termiche in funzione della temperatura (conducibilità termica, calore specifico, diffusività termica). I valori delle proprietà termiche utilizzati nel modello tengono conto del fatto che il materiale interno alla busta è poroso, infatti è costituito da una "miscela" di aria e prodotto Successivamente sono state impostate le equazioni del modello e le condizioni al contorno. All'interno del volume della confezione, il trasfermiento del calore avviene per conduzione, mentre sulla superficie avviene per convezione, nelle zone esposte all'aria e per contatto nelle zone di contatto tra confezione e piano di appoggio. La validazione è stata effettuata riproducendo numericamente le medesime condizioni utilizzate durante la sperimentazione. I parametri tenuti in considerazione sono i seguenti: tipologia di confezione (definita numericamente dai parametri dimensionali), tipologia di prodotto (contraddistinto da specifiche proprietà termo-fisiche), temperatura della cella di conservazione, tempo di conservazione, temperatura iniziale all'interno della confezione pari. Risultati In figura viene riportato un esempio di configurazione dell’andamento della temperatura all’interno della confezione di pisellini dopo 20 minuti di condizionamento a 5°C. E’ possibile osservare che la temperatura della parte di confezione a diretto contatto con il piano di acciaio, raggiunge zero gradi (zona rossa), mentre la parte centrale della confezione si mantiene sui -22°C (zona blu). Con lo scopo di simulare la conservazione della confezione posizionata verticalmente, è stata eliminata la condizione di contatto tra piano d'acciaio e confezione. E’ possibile osservare che, in questo caso, la variazione della temperatura nei diversi punti della confezione è meno elevata, infatti la temperatura massima registrata è pari a circa -8°C (zona rossa), mentre la parte centrale della confezione si mantiene sui -22°C (zona blu). La confezione di melanzane è risultata essere la meno adatta al mantenimento della temperatura in quanto è caratterizzata da un ampia area di contatto con il piano e da uno spessore abbastanza limitato; la confezione che mantiene la temperatura più a lungo è quella costituita dagli spinaci, anche se le temperature medie delle confezioni di spinaci e pisellini sono pressoché simili. A fronte dei risultati ottenuti confrontando gli andamenti della temperatura delle tre differenti confezione, è stato valutato l'effetto del volume della confezione sull'andamento della temperatura media e al centro della confezione. Le prove sono state effettuate dimezzando e aumentando del doppio il volume della confezione di pisellini. Differenze significative sono state riscontrate solo tra la confezione standard e quella con volume raddoppiato. Dalla validazione sperimentale è risultato che il modello che meglio si adatta ai dati sperimentali è quello relativo ai pisellini, probabilmente perché il prodotto all'interno della confezione è distribuito in maniera piuttosto uniforme. Nelle confezioni degli spinaci e delle melanzane, risulta molto più difficile definire un valore di porosità che può variare anche da busta a busta. Tuttavia, a fronte di questa variabilità, i modelli risultano essere adatti ad un uso industriale. Conclusioni -I modelli numerici sviluppati permettono di analizzare un numero arbitrario di combinazioni delle variabili durata del confezionamento, temperatura ambiente, temperatura iniziale del prodotto, forma e dimensioni della confezione. - Il modello permette di osservare il campo di temperatura con un grado di dettaglio irraggiungibile dalle tecniche sperimentali. -I risultati, in forma integrale, si trovano in ottimo accordo con quelli osservati sperimentalmente.
Resumo:
Il presente elaborato di tesi si inserisce nell’ambito del progetto europeo THESEUS (Innovative technologies for safer European coasts in a changing climate) fra i cui principali obiettivi c’è quello di fornire un’adeguata metodologia integrata per la pianificazione di strategie di difesa costiera sostenibili. Le zone costiere sono sempre più soggette agli impatti antropici, legati all’intensificazione dell’urbanizzazione, e agli effetti del global climate change, ed in particolare al conseguente sea level rise. Diventa quindi importante, in un’ottica di preservazione e di gestione, capire come gli ecosistemi costieri e i beni e servizi che essi forniscono risponderanno a questi cambiamenti ambientali. Fra questi, preponderanti sono quelli rappresentati dalle spiagge sabbiose. Al fine di valutare come differenti strategie di gestione possono influenzare il sistema spiaggia, è stata analizzata la riposta del comparto bentonico della zona intertidale di due differenti spiagge lungo la costa emiliano-romagnola. Lido di Spina è fortemente antropizzato e caratterizzato dalla presenza di infrastrutture balneari-turistiche permanenti. E’ soggetto, inoltre, a interventi di ripascimento annuali e di pulizia della spiaggia. Bellocchio, invece, è un sito naturale che presenta una spiaggia caratterizzata dall’arretramento della linea di costa causata dell’erosione, e non è soggetta a interventi di gestione finalizzati alla sua mitigazione. In questo studio è stata utilizzata la componente meiobentonica, generalmente trascurata, come indicatore chiave della vulnerabilità ecologica, mentre la zona intertidale sabbiosa è stata indagata in quanto reputata uno dei primi habitat costieri “recettore” degli eventi di flooding e degli interventi di gestione. Globalmente è stato possibile evidenziare differenze di struttura di comunità fra i due siti indagati, sottolineando come, anche questa componente sia in grado di far emergere i cambiamenti dovuti a differenti approcci di gestione delle coste sabbiose. Nella seconda parte del lavoro, invece, è stato testato un approccio metodologico innovativo, denominato “Fuzzy Bayes Ecological Model” (FBEM), sviluppato nell’ambito del progetto THESEUS. L’applicazione del FBEM in THESEUS è finalizzata alla simulazione delle risposte ecosistemiche ad eventi di flooding costiero ed al fenomeno del sea level rise. In questo elaborato, il modello è stato adottato al fine di descrivere eventuali cambiamenti dei popolamenti meiobentonici. Nello specifico, l’utilizzo del modello è servito per poter confrontare la situazione attuale relativa, quindi, allo scenario di sea level rise pari a zero, con quella ipotizzata dall’IPCC per il 2080 di sea level rise pari a 0,22 m, prendendo in considerazione otto tempi di ritorno di eventi simulati di flooding a intensità crescente. Dalle simulazioni emerge come il driver del danno ecologico sia l’onda frangente il cui effetto risulta, però, mitigato dal sea level rise. I popolamenti meiobentonici sono risultati dei buoni indicatori per la valutazione dei rischi connessi al flooding e al sea level rise, dimostrando così il loro possibile utilizzo come descrittori dei cambiamenti ecologici delle zone costiere. Per questo, lo studio ed il monitoraggio della dinamica e della struttura dei popolamenti meiobentonici può diventare un mezzo fondamentale per la comprensione delle funzionalità ecosistemiche delle spiagge sabbiose. E’ inoltre in grado di produrre alcune delle informazioni necessarie allo sviluppo dei piani di gestione integrata della fascia costiera in un ottica di conservazione di questi habitat costieri e dei servizi e beni da essi forniti.
Resumo:
Questo lavoro di tesi, svolto presso AVIO S.P.A, sede di Colleferro (RM), divisione spazio, si inserisce all'interno del progetto Theseus, che ha come scopo finale lo sviluppo di un dimostratore di un motore ibrido a combustibile solido e ossidante gassoso. In particolare, in questo momento è richiesto un codice di calcolo, preciso ma allo stesso tempo abbastanza contenuto nei tempi di calcolo, che permetta l'analisi e le previsioni della balistica interna di tale motore ibrido. Il codice di calcolo si basa su una versione già esistente per i motori a solido (CUBIC) scritto in ambiente FORTRAN, ed è stato riadattato ai motori ibridi. In particolare è stata scritta una routine per il calcolo della velocità di combustione che tiene conto di diversi fattori, tra cui blowing e il fenomeno di entrainment presente in superficie. Sempre per quanto riguarda la velocità di combustione, nel suo calcolo si tiene conto dell'impingement dell'iniettore sul grano e del valore locale (per quanto riguarda la temperatura di fiamma) dell'O/F. Inoltre è stato anche modellato il comportamento termodinamico delle eventuali protezioni termiche presenti internamente al motore, considerando tutti i fenomeni di pirolisi e ablazione che caratterizzano tali materiali. In fine il modello completo è stato testato e validato grazie al fatto che si disponeva di alcuni tiri al banco di un motore ibrido, effettuati presso il dipartimento di Ingegneria Aerospaziale dell'Università di Napoli Federico II.