945 resultados para simulazione, cinetica, sodio, modello monocompartimentale
Resumo:
La valutazione dei rischi associati all’operatività dei sistemi di stoccaggio, quali la sismicità indotta e la subsidenza, è requisito basilare per una loro corretta gestione e progettazione, e passa attraverso la definizione dell’influenza sullo stato tensionale delle variazioni di pressione di poro nel sottosuolo. Principale scopo di questo progetto è lo sviluppo di una metodologia in grado di quantificare le deformazioni dei reservoir in funzione della pressione di poro, di tarare i modelli utilizzati con casi studio che presentino dati di monitoraggio reali, tali da consentire un confronto con le previsioni di modello. In questa tesi, la teoria delle inomogeneità è stata utilizzata, tramite un approccio semianalitico, per definire le variazioni dei campi elastici derivanti dalle operazioni di prelievo e immissione di fluidi in serbatoi geologici. Estensione, forma e magnitudo delle variazioni di stress indotte sono state valutate tramite il concetto di variazione dello sforzo critico secondo il criterio di rottura di Coulomb, tramite un’analisi numerica agli elementi finiti. La metodologia sviluppata è stata applicata e tarata su due reservoir sfruttati e riconvertiti a sistemi di stoccaggio che presentano dataset, geologia, petrofisica, e condizioni operative differenti. Sono state calcolate le variazioni dei campi elastici e la subsidenza; è stata mappata la variazione di sforzo critico di Coulomb per entrambi i casi. I risultati ottenuti mostrano buon accordo con le osservazioni dei monitoraggi, suggerendo la bontà della metodologia e indicando la scarsa probabilità di sismicità indotta. Questo progetto ha consentito la creazione di una piattaforma metodologica di rapido ed efficace utilizzo, per stimare l’influenza dei sistemi di stoccaggio di gas sullo stato tensionale della crosta terrestre; in fase di stoccaggio, permette di monitorare le deformazioni e gli sforzi indotti; in fase di progettazione, consente di valutare le strategie operative per monitorare e mitigare i rischi geologici associati a questi sistemi.
Resumo:
The quest for universal memory is driving the rapid development of memories with superior all-round capabilities in non-volatility, high speed, high endurance and low power. The memory subsystem accounts for a significant cost and power budget of a computer system. Current DRAM-based main memory systems are starting to hit the power and cost limit. To resolve this issue the industry is improving existing technologies such as Flash and exploring new ones. Among those new technologies is the Phase Change Memory (PCM), which overcomes some of the shortcomings of the Flash such as durability and scalability. This alternative non-volatile memory technology, which uses resistance contrast in phase-change materials, offers more density relative to DRAM, and can help to increase main memory capacity of future systems while remaining within the cost and power constraints. Chalcogenide materials can suitably be exploited for manufacturing phase-change memory devices. Charge transport in amorphous chalcogenide-GST used for memory devices is modeled using two contributions: hopping of trapped electrons and motion of band electrons in extended states. Crystalline GST exhibits an almost Ohmic I(V) curve. In contrast amorphous GST shows a high resistance at low biases while, above a threshold voltage, a transition takes place from a highly resistive to a conductive state, characterized by a negative differential-resistance behavior. A clear and complete understanding of the threshold behavior of the amorphous phase is fundamental for exploiting such materials in the fabrication of innovative nonvolatile memories. The type of feedback that produces the snapback phenomenon is described as a filamentation in energy that is controlled by electron–electron interactions between trapped electrons and band electrons. The model thus derived is implemented within a state-of-the-art simulator. An analytical version of the model is also derived and is useful for discussing the snapback behavior and the scaling properties of the device.
Resumo:
Un sistema di distribuzione idropotabile (Water Distribution Network -WDN), data la sua complessità strutturale e funzionale, per l' ordinario esercizio richiede elevati quantitativi di energia. L'attuale trend tecnico/scientifico incoraggia la loro gestione e progettazione nell'ottica di un generale risparmio di energia che, oltre ad un indiscusso vantaggio economico, implica sopratutto una razionalizzazione dell'impiego di risorsa idrica. Questo è il contesto scientifico/culturale in cui il presente elaborato si colloca. Nello specifico, ci si propone la caratterizzazione energetica di la rete di distribuzione idrica Cabrera_network.(rivisitazione della rete presentata da E.Cabrera e M.Pardo nel loro studio del 2010) . Si sono quindi qualificati i legami tra i consumi energetici ed aspetti, quali: dimensionamento dei condotti, perdite idriche, tipologia di pompa centrifuga sfruttata e livello idrico massimo del serbatoio di compenso. Ciò è stato esplicato in due fasi di analisi. In una primo momento, si sono impiegati strumenti classi quali il simulatore idraulico Epanet2 e i fogli di calcolo Excel. In un secondo momento, il problema dell'ottimizzazione energetica della rete è stato risolto a mezzo l'algoritmo euristico GHEST. Al di là delle specifiche conclusioni, cui si rinvia, l'elaborato consente di cogliere un più generale profilo di ordine metodologico: l'importanza di una visione d'insieme del problema energetico in un sistema di distribuzione idropotabile, dalla quale, nel caso di specie, emerge che la scelta più ragionevole, al fine dell'ottimizzazione energetica, consiste nell'individuazione del più idoneo modello di pompa alimentante la rete. Per poi, data l'onere progettuale e applicativo che comporta, provvedere al reinvestimento dei capitali risparmiati in attività volte alla riduzione delle perdite idriche. Sono questi infatti, i due aspetti che più incidono sui consumi energetici nel caso di studio.
Resumo:
In questo lavoro di tesi è stato elaborato un modello analitico al fine di ottenere una stima dell’ampiezza di delaminazione a seguito di impatti a bassa velocità in laminati in composito, in particolare carbon/epoxy. Nel capitolo 2 è descritto il comportamento meccanico di tali laminati (equazioni costitutive della singola lamina, dell’intero laminato e costanti ingegneristiche dell’intero laminato per qualsiasi sistema di riferimento). Nel capitolo 3 viene descritta la filosofia di progettazione damage tolerance per tali materiali sottoposti a low-velocity impact (LVI) e richiamato il concetto di structural health monitoring. In particolare vengono descritti i tipi di difetti per un laminato in composito, vengono classificati gli impatti trasversali e si rivolge particolare attenzione agli impatti a bassa velocità. Nel paragrafo 3.4 sono invece elencate diverse tecniche di ispezione, distruttive e non, con particolare attenzione alla loro applicazione ai laminati in composito. Nel capitolo 4 è riportato lo stato dell’arte per la stima e la predizione dei danni dovuti a LVI nei laminati: vengono mostrate alcune tecniche che permettono di stimare accuratamente l’inizio del danno, la profondità dell’indentazione, la rottura delle fibre di rinforzo e la forza massima di impatto. L’estensione della delaminazione invece, è difficile da stimare a causa dei numerosi fattori che influenzano la risposta agli impatti: spesso vengono utilizzati, per tale stima, modelli numerici piuttosto dispendiosi in termini di tempo e di calcolo computazionale. Nel capitolo 5 viene quindi mostrata una prima formula analitica per il calcolo della delaminazione, risultata però inaffidabile perché tiene conto di un numero decisamente ristretto di fattori che influenzano il comportamento agli LVI. Nel capitolo 6 è mostrato un secondo metodo analitico in grado di calcolare l’ampiezza di delaminazione mediante un continuo aggiornamento della deflessione del laminato. Dal confronto con numerose prove sperimentali, sembra che il modello fornisca risultati vicini al comportamento reale. Il modello è inoltre fortemente sensibile al valore della G_IIc relativa alla resina, alle dimensioni del laminato e alle condizioni di vincolo. É invece poco sensibile alle variazioni delle costanti ingegneristiche e alla sequenza delle lamine che costituiscono il laminato. La differenza tra i risultati sperimentali e i risultati del modello analitico è influenzata da molteplici fattori, tra cui il più significativo sembra essere il valore della rigidezza flessionale, assunto costante dal modello.
Resumo:
Lo studio effettuato pone le sue basi sulla ricerca di materiali stradali che combinino ad elevati standard prestazionali, la riduzione dell’impatto ambientale in fase realizzativa e manutentiva. In particolare il seguente lavoro si occupa dello studio di 7 leganti modificati con polimeri ed additivati con cere. I primi infatti conferiscono alla miscela maggiore elastoplasticità, incrementandone la durabilità e la resistenza a fatica. Nei secondi la presenza del materiale paraffinico contribuisce a ridurre la viscosità del bitume, consentendo un notevole abbassamento della temperatura di produzione e stesa della miscela. Numerosi studi hanno dimostrato che le caratteristiche meccaniche della pavimentazione sono fortemente influenzate dal grado di ossidazione delle componenti organiche del bitume, ovvero dal fenomeno dell’invecchiamento o aging. Pertanto allo studio reologico del bitume, si sono affiancate prove di simulazione dell’ invecchiamento nel breve e lungo termine. In fase di ricerca sperimentale si sono analizzati i leganti modificati ed additivati secondo la teoria della viscoelasticità, simulando le reali condizioni di carico ed invecchiamento alle quali il bitume è sottoposto. Tutte le prove di caratterizzazione reologica avanzata sono state effettuate mediante l’utilizzo del DSR (Dynamic Shear Rheometer - UNI EN 14770 ) in varie configurazioni di prova e l’invecchiamento a breve termine è stato simulato mediante RTFOT (Rolling thin film oven test -UNI EN 12607-1). Si è proposto inoltre una nuova procedura di aging invecchiando il bitume alla temperatura di Twork, ovvero a quel valore della temperatura tale per cui, in fase di messa in opera, si avrà una distribuzione molecolare omogenea del modificante all’interno del bitume.
Resumo:
Il lavoro svolto durante questa tesi di dottorato pone le basi per lo sviluppo di nuove biotecnologie della micorrizazione di piante forestali con tartufi pregiati ed in particolare con Tuber magnatum. Durante questa tesi è stato possibile isolare e mantenere in coltura pura il micelio di T. magnatum, ad ottenere e descrivere le sue micorrize e quelle di altri tartufi “bianchi” (T. oligospermum, T. borchii) e a seguire l’evoluzione del micelio nel suolo utilizzando la tecnica della real time PCR. Sono stati disegnati primer specie specifici in grado di identificare T. oligospermum ed è stata verificata la possibiltà di utilizzare questi primers in PCR multiplex con quelli specifici di T. magnatum e di T. borchii già presenti in bibliografia, al fine di “scovare” sia frodi nella commercializzaione degli ascomi sia eventuali contaminazioni nelle piante micorrizate. Per migliorare lo sviluppo miceliare di tartufo abbiamo si è cercato di migliorare il mezzo nutritivo per la crescita del micelio utilizzando: fonti di carbonio diverse, estratti radicali di nocciolo e singole frazioni separate dagli stessi. Infine sono stati sviluppati protocolli di crioconservazione per miceli di tartufo. Gli estratti radicali sono in grado di stimolare le crescita miceliare del tartufo modello T. borchii e dimodificarne la morfologia ifale. Questo risultati sono stati confermati anche dall’aumento dell’espressione di geni CDC42 e Rho-GDI, due geni legati alla crescita apicale polarizzata delle ife dei funghi filamentosi. Inoltre è stato dimostrato che il mantenimento in coltura per numerosi anni dei miceli di tartufo provoca una perdita della capacità d’infettare le radici delle piante e quindi il loro potenziale utilizzo sia a scopo sperimentale sia a scopo colturale. Questo pone in risalto l’importanza della conservazione a lungo termine del materiale biologico a disposizione ed è stato dimostrato che la crioconservazione è applicabile con successo anche alle specie del genere Tuber.
Resumo:
RAF is a bio-energetic descriptive model integrates with MAD model to support Integrated Farm Management. RAF model aimed to enhancing economical, social and environmental sustainability of farm production in terms of energy via convert energy crops and animal manure to biogas and digestate (bio-fertilizers) by anaerobic digestion technologies, growing and breeding practices. The user defines farm structure in terms of present crops, livestock and market prices and RAF model investigates the possibilities of establish on-farm biogas system (different anaerobic digestion technologies proposed for different scales of farms in terms of energy requirements) according to budget and sustainability constraints to reduce the dependence on fossil fuels. The objective function of RAF (Z) is optimizing the total net income of farm (maximizing income and minimizing costs) for whole period which is considered by the analysis. The main results of this study refers to the possibility of enhancing the exploitation of the available Italian potentials of biogas production from on-farm production of energy crops and livestock manure feedstock by using the developed mathematical model RAF integrates with MAD to presents reliable reconcile between farm size, farm structure and on-farm biogas systems technologies applied to support selection, applying and operating of appropriate biogas technology at any farm under Italian conditions.
Resumo:
Questo lavoro di tesi tratta l'utilizzo di misure idrometriche satellitari in combinazione con le misure idrometriche tradizionali per la calibrazione dei modelli numerico-idraulici. Il presente elaborato riguarda la calibrazione di un complesso modello idraulico del Fiume Po implementato in HEC-RAS. Il caso di studio è un tratto del Fiume Po lungo circa 131 km, che va dalla sezione relativa alla stazione idrometrica di Borgoforte e termina all'incile del Po di Goro. Le Analisi numeriche svolte si suddividono in tre gruppi, il primo sfrutta l'impiego di soli dati idrometrici tradizionali, il secondo l'impiego di soli dati idrometrici satellitari e il terzo l'impiego di entrambe le tipologie di dati idrometrici.
Resumo:
1.Ricostruzione mandibolare La ricostruzione mandibolare è comunemente eseguita utilizzando un lembo libero perone. Il metodo convenzionale (indiretto) di Computer Aided Design e Computer Aided Manifacturing prevede il modellamento manuale preoperatorio di una placca di osteosintesi standard su un modello stereolitografico della mandibola. Un metodo innovativo CAD CAM diretto comprende 3 fasi: 1) pianificazione virtuale 2) computer aided design della dima di taglio mandibolari, della dima di taglio del perone e della placca di osteosintesi e 3) Computer Aided Manufacturing dei 3 dispositivi chirurgici personalizzati. 7 ricostruzioni mandibolari sono state effettuate con il metodo diretto. I risultati raggiunti e le modalità di pianificazione sono descritte e discusse. La progettazione assistita da computer e la tecnica di fabbricazione assistita da computer facilita un'accurata ricostruzione mandibolare ed apporta un miglioramento statisticamente significativo rispetto al metodo convenzionale. 2. Cavità orale e orofaringe Un metodo ricostruttivo standard per la cavità orale e l'orofaringe viene descritto. 163 pazienti affetti da cancro della cavità orale e dell'orofaringe, sono stati trattati dal 1992 al 2012 eseguendo un totale di 175 lembi liberi. La strategia chirurgica è descritta in termini di scelta del lembo, modellamento ed insetting. I modelli bidimensionali sono utilizzati per pianificare una ricostruzione tridimensionale con il miglior risultato funzionale ed estetico. I modelli, la scelta del lembo e l' insetting sono descritti per ogni regione. Complicazioni e risultati funzionali sono stati valutati sistematicamente. I risultati hanno mostrato un buon recupero funzionale con le tecniche ricostruttive descritte. Viene proposto un algoritmo ricostruttivo basato su template standard.
Resumo:
Il pomodoro è una delle colture principali del panorama agro-alimentare italiano e rappresenta un ingrediente base della tradizione culinaria nazionale. Il pomodoro lavorato dall’industria conserviera può essere trasformato in diverse tipologie merceologiche, che si differenziano in base alla tecniche di lavorazione impiegate ed alle caratteristiche del prodotto finito. la percentuale di spesa totale destinata all’acquisto di cibo fuori casa è in aumento a livello globale e l’interesse dell’industria alimentare nei confronti di questo canale di vendita è quindi crescente. Mentre sono numerose le indagine in letteratura che studiano i processi di acquisto dei consumatori finali, non ci sono evidenze di studi simili condotti sugli operatori del Food Service. Obiettivo principale della ricerca è quello di valutare le preferenze dei responsabili acquisti del settore Food Service per diverse tipologie di pomodoro trasformato, in relazione ad una gamma di attributi rilevanti del prodotto e di caratteristiche del cliente. La raccolta dei dati è avvenuta attraverso un esperimento di scelta ipotetico realizzato in Italia e alcuni mercati esteri. Dai risultati ottenuti dall’indagine emerge che i Pelati sono la categoria di pomodoro trasformato preferita dai responsabili degli acquisti del settore Food Service intervistati, con il 35% delle preferenze dichiarate nell'insieme dei contesti di scelta proposti, seguita dalla Polpa (25%), dalla Passata (20%) e dal Concentrato (15%). Dai risultati ottenuti dalla stima del modello econometrico Logit a parametri randomizzati è emerso che alcuni attributi qualitativi di fiducia (credence), spesso impiegati nelle strategie di differenziazione e posizionamento da parte dell’industria alimentare nel mercato Retail, possono rivestire un ruolo importante anche nell’influenzare le preferenze degli operatori del Food Service. Questo potrebbe quindi essere un interessante filone di ricerca da sviluppare nel futuro, possibilmente con l'impiego congiunto di metodologie di analisi basate su esperimenti di scelta ipotetici e non ipotetici.
Resumo:
Lo scopo della tesi è esplorare il nuovo dualismo tra calcolo situato e calcolo come mero servizio immateriale che si osserva nel rafforzarsi di due paradigmi apparentemente antitetici come Cloud Computing e Pervasive Computing. Si vuole quindi dimostrare che i due paradigmi sono complementari, e possibilmente sviluppare un modello e un approccio metodologico per sistemi distribuiti che sfrutti opportunamente le caratteristiche dei due paradigmi. A tale scopo si utilizzerà come caso di studio il modello TuCSoN con linguaggio ReSpecT, combinando opportunamente Situated ReSpecT con il modello Coordination as a Service (CaaS) espresso da TuCSoN on Cloud.
Resumo:
La stesura di questo elaborato di tesi trova le basi sull’articolo di Stergiopulos et al. “Determinants of stroke volume and systolic and diastolic aortic pressure” pubblicato sulla rivista americana American Journal of Physiology-Heart and Circulatory Physiology nel 1996. Si cerca di investigare sull’importanza che ricoprono alcuni parametri che descrivono il muscolo cardiaco e l’albero arterioso e sulla loro rispettiva influenza sulla pressione sistolica, pressione diastolica e sul volume di sangue eiettato in un battito, ovvero la gittata sistolica. Si procede con la descrizione in dettaglio della funzionalità cardiaca mediante il modello ad elastanza tempo variabile e il modello windkessel a tre elementi simulando così la contrazione ventricolare e l’albero arterioso sistemico. In dettaglio per quanto riguarda la struttura dell’elaborato è bene specificare che l’analisi teorica affrontata nei primi due capitoli ha l’obiettivo primario di: 1) chiarire i principali e caratteristici meccanismi che si trovano alla base della funzionalità cardiaca e procedere quindi con i richiami relativi alla fisiologia del sistema cardio-circolatorio facendo particolare attenzione al concetto di ciclo cardiaco, ciclo pressione-volume e fattori che determinano la funzionalità cardiaca in dettaglio; 2)illustrare quelli che sono i principali modelli di riferimento presenti in letteratura che descrivono la contrazione del ventricolo sinistro in termini di analisi pressione-volume ventricolari istantanei. Dal terzo capitolo in avanti si prosegue verso quello che è il vivo della trattazione dell’articolo di riferimento, nel capitolo appena citato si fa luce sui dettagli che caratterizzano il modello matematico utilizzato per approssimare al meglio il sistema cuore-sistema arterioso e sull’applicazione della teoria dell’analisi dimensionale mediante l’utilizzo del Teorema di Buckingham al fine di ricavare i parametri di interesse. Nel quarto capitolo si riportano i risultati dello studio con annessa validazione del modello e la sua applicazione rispetto al caso umano. Il quinto capitolo è sede della discussione dei risultati ottenuti cercando di far luce sull’universalità e applicabilità delle formule empiriche ottenute e su eventuali limitazioni e implicazioni riscontrabili. Tale elaborato si chiude con alcune conclusioni in merito allo studio effettuato.
Resumo:
L'ALMATracker è un sistema di puntamento per la stazione di terra di ALMASat-1. La sua configurazione non segue la classica Azimuth-Elevazione, bensì utilizza gli assi α-β per evitare punti di singolarità nelle posizioni vicino allo zenit. Ancora in fase di progettazione, utilizzando in congiunta SolidWorks e LabVIEW si è creato un Software-in-the-loop per la sua verifica funzionale, grazie all'utilizzo del relativamente nuovo pacchetto NI Softmotion. Data la scarsa esperienza e documentazione che si hanno su questo recente tool, si è prima creato un Case Study che simulasse un sistema di coordinate cilindriche in modo da acquisire competenza. I risultati conseguiti sono poi stati sfruttati per la creazione di un SIL per la simulazione del movimento dell'ALMATracker. L'utilizzo di questa metodologia di progettazione non solo ha confermato la validità del design proposto, ma anche evidenziato i problemi e le potenzialità che caratterizzano questo pacchetto software dandone un analisi approfondita.
Resumo:
Obiettivo Valutare l’ipotesi secondo cui la movimentazione manuale di carichi possa essere un fattore di rischio per il di distacco di retina. Metodi Si è condotto uno studio caso-controllo ospedaliero multicentrico, a Bologna, (reparto di Oculistica del policlinico S. Orsola Malpighi, Prof. Campos), e a Brescia (reparto di oculistica “Spedali Civili” Prof. Semeraro). I casi sono 104 pazienti operati per distacco di retina. I controlli sono 173 pazienti reclutati tra l’utenza degli ambulatori del medesimo reparto di provenienza dei casi. Sia i casi che i controlli (all’oscuro dall’ipotesi in studio) sono stati sottoposti ad un’intervista, attraverso un questionario strutturato concernente caratteristiche individuali, patologie pregresse e fattori di rischio professionali (e non) relativi al distacco di retina. I dati relativi alla movimentazione manuale di carichi sono stati utilizzati per creare un “indice di sollevamento cumulativo―ICS” (peso del carico sollevato x numero di sollevamenti/ora x numero di anni di sollevamento). Sono stati calcolati mediante un modello di regressione logistica unconditional (aggiustato per età e sesso) gli Odds Ratio (OR) relativi all’associazione tra distacco di retina e vari fattori di rischio, tra cui la movimentazione manuale di carichi. Risultati Oltre alla chirurgia oculare e alla miopia (fattori di rischio noti), si evidenzia un trend positivo tra l’aumento dell’ICS e il rischio di distacco della retina. Il rischio maggiore si osserva per la categoria di sollevamento severo (OR 3.6, IC 95%, 1.5–9.0). Conclusione I risultati, mostrano un maggiore rischio di sviluppare distacco di retina per coloro che svolgono attività lavorative che comportino la movimentazione manuale di carichi e, a conferma di quanto riportato in letteratura, anche per i soggetti miopi e per coloro che sono stati sottoposti ad intervento di cataratta. Si rende quindi evidente l’importanza degli interventi di prevenzione in soggetti addetti alla movimentazione manuale di carichi, in particolare se miopi.
Resumo:
This thesis presents a universal model of documents and deltas. This model formalize what it means to find differences between documents and to shows a single shared formalization that can be used by any algorithm to describe the differences found between any kind of comparable documents. The main scientific contribution of this thesis is a universal delta model that can be used to represent the changes found by an algorithm. The main part of this model are the formal definition of changes (the pieces of information that records that something has changed), operations (the definitions of the kind of change that happened) and deltas (coherent summaries of what has changed between two documents). The fundamental mechanism tha makes the universal delta model a very expressive tool is the use of encapsulation relations between changes. In the universal delta model, changes are not always simple records of what has changed, they can also be combined into more complex changes that reflects the detection of more meaningful modifications. In addition to the main entities (i.e., changes, operations and deltas), the model describes and defines also documents and the concept of equivalence between documents. As a corollary to the model, there is also an extensible catalog of possible operations that algorithms can detect, used to create a common library of operations, and an UML serialization of the model, useful as a reference when implementing APIs that deal with deltas. The universal delta model presented in this thesis acts as the formal groundwork upon which algorithm can be based and libraries can be implemented. It removes the need to recreate a new delta model and terminology whenever a new algorithm is devised. It also alleviates the problems that toolmakers have when adapting their software to new diff algorithms.