238 resultados para Bioingegneria, Modelli matematici, Volume del liquido interstiziale
Resumo:
Il lavoro svolto si concentra sulla città di Mirandola, dopo il terremoto del 2012. Viene svolto uno studio storico della città, e un'analisi sullo stato di fatto. Riflessioni sul limite tra città contemporanea e città storica. Viene proposta la ricostruzione del segno delle mura come limite, in modo da restituire un'identità alla città. Infine, il progetto si concentra sull'area dell'ex convento di San Francesco, complesso abbandonato dopo il sisma. La volontà è quella di riuscire a restituirlo alla cittadini di Mirandola, come nuovo centro culturale. Il progetto si impegna a mantenere l'esistente, aggiungendo un nuovo volume, che verrà occupata da una sala conferenze e da una parte della biblioteca.
Studio della fluidodinamica e della reazione chimica in un reattore agitato tramite modellazione cfd
Resumo:
L’attività di tesi è stata rivolta a realizzare l’accoppiamento tra modelli di reazione chimica e modelli di fluidodinamica per una reazione eterogenea solido-liquido in un reattore agitato, in ambito di un codice commerciale di fluidodinamica numerica. Lo studio ha avuto come punto di partenza la definizione e la discretizzazione del dominio di calcolo tramite un apposito programma. Per una trattazione completa, si sono svolti studi preliminari volti ad identificare le incertezze dovute ai metodi numerici e i limiti dovuti alla formulazione dei modelli per la descrizione del sistema. Lo studio si è svolto considerando sistemi di complessità crescente, partendo da simulazioni monofase fino ad arrivare allo studio di diverse soluzioni per sistemi reagenti con reazioni eterogenee solido-liquido. Questi ultimi esempi applicativi sono serviti come verifica del modello sviluppato (dove con modello si è indicato l’insieme dei modelli relativi alla fluidodinamica accoppiati al modello di reazione). Questa attività ha contribuito ad affrontare un problema di simulazione completa e completamente predittiva dei reattori chimici, essendo la letteratura a riguardo limitata, a differenza di quella relativa alle simulazioni puramente fluidodinamiche.
Resumo:
Il proposito principale di questo studio è valutare, attraverso un confronto tra tecnologia Nexfin e metodo invasivo, se l’attuazione di modelli fisiologici realizzata dal Monitor Nexfin, rende possibile un preciso e accurato monitoraggio dinamico della pressione arteriosa, garantendo in questo modo l’affidabilità della suddetta tecnologia in ambito clinico. È stato deciso di porre come termine di paragone il sistema invasivo in quanto rappresenta il gold standard per la rilevazione della pressione arteriosa. I capitoli sono stati disposti in modo da introdurre gradualmente il lettore all’interno del topic principale dell’elaborato, fornendo di volta in volta tutte le conoscenze essenziali per una comprensione ottimale degli argomenti trattati. Il primo capitolo fornisce inizialmente una breve visione d’insieme sull’apparato cardiocircolatorio, per poi concentrarsi sui fenomeni che concorrono alla definizione e alla caratterizzazione della pressione arteriosa. Il secondo capitolo presenta alcuni cenni storici sulle prime misurazioni di pressione effettuate, in seguito illustra i principali metodi di misurazione non invasivi, articolando il discorso anche attraverso l’analisi dei principali sfigmomanometri ad oggi disponibili. Il terzo capitolo guida il lettore attraverso la scoperta delle più recenti metodiche non invasive per la misurazione della pressione che consentono un monitoraggio dinamico, esponendo nel dettaglio i loro limiti e le loro peculiarità. Nella parte finale del capitolo si affronta anche l’evoluzione del “Volume Clamp Method” di Peñáz partendo dal progetto originale fino a giungere al notevole contributo di Wesseling e alla ricostruzione del segnale di pressione brachiale. Il quarto capitolo delinea brevemente le caratteristiche principali del metodo invasivo, ovvero il gold standard per quanto riguarda il monitoraggio della pressione sanguigna. Il quinto capitolo infine illustra in maniera completa le proprietà del Monitor Nexfin e analizza i risultati conseguiti, confrontando la tecnologia Nexfin con il sistema invasivo, durante lo studio condotto presso l’Ospedale Maurizio Bufalini dell’Azienda USL della Romagna – Sede operativa di Cesena. Lo studio è presentato seguendo una impostazione scientifica.
Resumo:
La movimentazione delle materie prime, degli intermedi e dei prodotti finali all’interno di una raffineria avviene attraverso una struttura logistica che prevede la ricezione delle materie prime, i trasferimenti delle sostanze tra le diverse unità produttive, la spedizione dei prodotti finiti. La distribuzione dei fluidi avviene su vie di tubazioni (pipe rack e trincee) che si possono articolare su un’ampia porzione di territorio, in prossimità di impianti, strade ed altri centri nevralgici. La perdita di contenimento accidentale dalle tubazioni può costituire un elemento di rischio di difficile gestione, proprio per la diffusione dei percorsi su un’area di vaste dimensioni. Il presente lavoro di tesi, svolto presso lo studio ICARO s.r.l. di Cortona, si propone di effettuare l’analisi del rischio dovuto al trasferimento dei fluidi all’interno di una raffineria, valutando la frequenza e la distribuzione spaziale degli effetti degli scenari incidentali finali che possono avere luogo in caso di rilascio. Le tubazioni prese in esame sono quelle di maggior impatto dal punto di vista del rischio a causa della pericolosità della sostanza trasferita e della vicinanza del percorso a punti nevralgici all’interno dello stabilimento; sulla base di questo criterio sono state analizzate le tubazioni per il trasferimento di GPL, H2S e benzina. I risultati ottenuti consentono di identificare soluzioni per l’ottimizzazione del layout della raffineria e costituiscono, più in generale, uno strumento analitico di supporto alle modifiche progettuali. L’elaborato è strutturato come segue. Nel Capitolo 1 è riportata la descrizione della raffineria e delle linee di interconnessione selezionate ai fini dello studio. Nel Capitolo 2 vengono identificate le tipologie più rappresentative di perdita di contenimento dalle linee e ne viene stimata la frequenza di accadimento. Nel Capitolo 3 viene illustrata una metodologia per la stima della probabilità di innesco che tiene in considerazione la circolazione di automezzi nelle strade interne della raffineria. Nel Capitolo 4 vengono esaminati, confrontati e selezionati i vari tipi di modelli di rilascio presenti nel package di simulazione Phast Professional 7.1 in vista della loro applicazione alle perdite dalle linee. Nel Capitolo 5 è riportato il calcolo delle frequenze di accadimento degli scenari incidentali finali, mentre nel Capitolo 6 sono illustrati i risultati relativi alla valutazione delle conseguenze. Nel Capitolo 7 viene effettuato lo studio dell’effetto domino, sviluppato in accordo ad un approccio metodologico innovativo. Infine nel Capitolo 8 vengono riportate alcune considerazioni finali.
Resumo:
Il lavoro svolto in questo lavoro di tesi magistrale ha avuto come obiettivo proporre un modello per la stima del tempo di percorrenza sugli archi ciclabili, in relazione alle caratteristiche geometriche dei percorsi e sfruttando il database open source OpenStreetMap. E' stato svolto un lavoro di rilievo e aggiornamento della schematizzazione della rete ciclabile; inoltre è sta condotta una campagna di rilevazioni GPS sulle piste ciclabili della città di Bologna al fine di poter svolgere la calibrazione dei parametri dei modelli proposti.
Resumo:
La cosmologia ha come scopo lo studio di origine ed evoluzione dell’Universo, per averne una comprensione generale attraverso le leggi fisiche conosciute. Il modello del Big Bang, di cui si dà la descrizione teorica nel capitolo 1, è una delle formulazioni più recenti di teoria che mira a spiegare l’inizio e la successiva evoluzione dell’Universo, fino ad avanzare anche ipotesi sul suo destino futuro; è inoltre il modello generalmente accettato dalla comunità scientifica in quanto, di tutti i modelli proposti nel corso degli anni, è quello con più riscontri sperimentali e che meglio si trova in accordo con le osservazioni. I principali successi del modello vengono trattati nel capitolo 2. In particolare: si tratterà di redshift e legge di Hubble, collegati all’espansione dell’Universo, importante prova dell’attendibilità del modello del Big Bang; della radiazione cosmica di fondo, scoperta negli anni ’60 quasi per caso e poi ricondotta a ipotesi teoriche già avanzate anni prima nelle prime formulazioni del modello; della nucleosintesi primordiale, che spiega l’abbondanza attuale dei principali costituenti dell’Universo, H ed He, cosa che altrimenti non sarebbe spiegabile se si considerasse soltanto la formazione di tali elementi nelle stelle. Ovviamente anche questo modello, come si vede nel capitolo 3, non manca di problemi, a cui si è trovata una risoluzione parziale o comunque non definitiva; in questa sede tuttavia, per ragioni di spazio, tali problemi e la loro soluzione verranno soltanto accennati. Si accennerà al problema dell’Universo piatto e al problema dell’orizzonte, e a come essi possano essere spiegati introducendo il concetto di inflazione. Infine, nel capitolo 4, si accenna anche alla materia oscura, soprattutto per quanto riguarda le evidenze sperimentali che ne hanno permesso la scoperta e le prove successive che ne confermano l’esistenza. Tuttora ne ignoriamo natura e composizione, visto che a differenza della materia ordinaria non emette radiazione elettromagnetica, ma i suoi effetti gravitazionali sono evidenti ed è estremamente difficile che la sua esistenza possa essere messa in discussione.
Resumo:
L’elaborato propone un’analisi dettagliata della configurazione del discorso pubblicitario, inteso come il risultato di una duplice operazione: quella di produzione del messaggio, a opera del pubblicitario, utente di precise strategie discorsive, e quella di interpretazione, da parte del destinatario che completa il significato dell’enunciato attribuendogli le proprie peculiari connotazioni. Il corpus utilizzato consiste in una raccolta di spot pubblicitari prodotti dall’azienda Barilla per i telespettatori francofoni, ed è stato reperito presso l’Archivio Storico di Barilla nella sede di Parma. L’illustrazione e la descrizione di alcune pubblicità scelte come modelli forniscono la base per l’approfondimento di alcune problematiche linguistiche e traduttologiche; in particolare, viene posto l’accento sulla nozione di ethos discorsivo, collocabile nell'ambito dell’analisi del discorso, e su quella di stereotipo linguistico, considerato come veicolo culturale e strumento dotato di straordinaria forza assertiva e pertanto prediletto dalla comunicazione pubblicitaria. Tale forma di linguaggio merita di essere analizzata e studiata nella sua ricca complessità, dal momento che è da considerarsi come il più efficace e moderno mezzo di diffusione, incorporazione e assimilazione di valori e comportamenti culturalmente orientati.
Resumo:
Nell'ultimo ventennio l'impatto delle tecnologie wireless ha rivoluzionato il modo di comunicare. Tuttavia oltre a svariati benefici sono emersi diversi problemi di integrazione e ottimizzazione. Uno tra i protocolli più conosciuto e utilizzato in ambito di comunicazioni di rete, il TCP, viene sempre più spesso usato all'interno di sistemi wireless, per le sue caratteristiche di affidabilità e controllo, senza però fornire supporto specifico. Ciò è materia di forte dibattito e ricerca, che mira a cercare di raffinare le differenti versioni di TCP per renderle wireless-oriented. In questo lavoro si analizzano due varianti di sistema che sfruttano il TCP in scenari di mobilità, una con TCP classico e l'altra con TCP modificato tramite l'aggiunta di un meccanismo di ritrasmissione anticipata, e se ne studiano i vari aspetti e comportamenti, valutandone le prestazioni per mezzo di metodi matematici consolidati in letteratura.
Resumo:
Alla base dell'elaborato vi è uno studio geometrico differenziale del Taijitu ed in particolare della curva centrale presente nel simbolo; il tutto ripercorrendo cronologicamente ed in termini matematici il cambiamento che il simbolo ha subito nel corso del tempo. Tale studio è consistito, implementando un programma Matlab, nell'approssimazione mediante curve di Bézier, seguita da osservazioni sul grado delle curve trovate e sulla loro differenziabilità.
Resumo:
La natura distribuita del Cloud Computing, che comporta un'elevata condivisione delle risorse e una moltitudine di accessi ai sistemi informatici, permette agli intrusi di sfruttare questa tecnologia a scopi malevoli. Per contrastare le intrusioni e gli attacchi ai dati sensibili degli utenti, vengono implementati sistemi di rilevamento delle intrusioni e metodi di difesa in ambiente virtualizzato, allo scopo di garantire una sicurezza globale fondata sia sul concetto di prevenzione, sia su quello di cura: un efficace sistema di sicurezza deve infatti rilevare eventuali intrusioni e pericoli imminenti, fornendo una prima fase difensiva a priori, e, al contempo, evitare fallimenti totali, pur avendo subito danni, e mantenere alta la qualità del servizio, garantendo una seconda fase difensiva, a posteriori. Questa tesi illustra i molteplici metodi di funzionamento degli attacchi distribuiti e dell'hacking malevolo, con particolare riferimento ai pericoli di ultima generazione, e definisce le principali strategie e tecniche atte a garantire sicurezza, protezione e integrità dei dati all'interno di un sistema Cloud.
Resumo:
La tesi ha natura sperimentale ed è mirata alla valutazione, attraverso l’uso di un programma agli elementi finiti tridimensionale, dell’interazione tra lo scavo del pozzo di introduzione scudi e le Mura Aureliane adiacenti a Porta Asinaria, a Roma. La prima parte della tesi si è concentrata sulla caratterizzazione geotecnica, a partire dai dati ricavati dalle campagne d’indagine eseguite nel tempo. Una volta effettuata la caratterizzazione geotecnica si è passati alla calibrazione del modello costitutivo per il terreno; si è scelto di adottare un legame costitutivo elasto-plastico incrudente, l’Hardening Soil Model with Small Strain Stiffness. Si è quindi passati alla definizione geometrica e dei materiali, utilizzando i rilievi strutturali e topografici, e alla conseguente definizione dei parametri del modello costitutivo adottato per la muratura e per il nucleo interno. In questo caso è stato adottato il modello di Mohr-Coulomb. La geometria globale è stata infine importata dal programma di calcolo PLAXIS 3D a partire da un modello tridimensionale realizzato con il programma Autocad Civil 3D. L'analisi agli elementi finiti ha valutato la realizzazione di diverse configurazioni possibili riguardanti la modellazione del pozzo e di eventuali opere di mitigazione degli effetti, quali lo sbancamento a tergo delle Mura e il successivo rinterro, a scavo ultimato. Si è inoltre analizzata l’influenza provocata da un possibile degrado della muratura. In ultimo sono stati analizzati e commentati i risultati di ciascun’analisi eseguita, in termini di stati deformativi e tensionali, ponendo l’attenzione sulle differenze di comportamento rilevate nelle diverse configurazioni adottate.
Resumo:
La presente tesi ha come obiettivo quello di illustrare il flusso informativo che gestisce lo scambio dei dati relativi a cure radioterapiche nell’ambiente di medicina nucleare. La radioterapia comprende tutte quelle cure a base di sostanze radioattive o radiazioni che vengono somministrate a scopo diagnostico o terapeutico. Le due tecniche più utilizzate sono la brachiradioterapia e la radioterapia a fasci esterni. La prima è utilizza solo in casi selezionati di tumori direttamente accessibili e la sua caratteristica principale è la rapida diminuzione della dose con l'allontanarsi dalla sorgente, la seconda tecnica invece consiste nell’irradiare la zona interessata dall’esterno, utilizzando come sorgente di radiazioni una macchina chiamata acceleratore lineare, posta all’esterno del corpo del paziente. Questa terapia ha come obiettivo primario quello di ottenere la migliore distribuzione di dose nel volume bersaglio, risparmiando quanto più possibile i tessuti sani. Già dalla nascita della radioterapia, questa tecnica era caratterizzata dalla presenza di immagini digitali, cioè al contrario di altri reparti radiologici dove le immagini diagnostiche venivano impresse su pellicole, qui le informazioni circolavano già in formato elettronico. Per questo motivo già da subito si è avvertita l’esigenza di trovare una modalità per lo scambio, in maniera efficiente e sicura, di dati clinici per organizzare al meglio la cura del paziente e la pianificazione, anche con macchinari di diversi produttori, del trattamento radioterapico. In tutto questo ha svolto un ruolo fondamentale la proposta di IHE del framework di medicina nucleare, dove si dettavano linee guida per coordinare in maniera semplice e vantaggiosa l’integrazione informativa dei vari attori del processo di cura radioterapico.
Resumo:
In questo lavoro di tesi si sono sviluppati un modello molecolare ed una metodologia Molecular Dynamics in grado di simulare il comportamento di particelle attive, alimentate da un motore molecolare, in matrici liquido-cristalline. In particolare, abbiamo sviluppato un metodo di calcolo della temperatura traslazionale ed un algoritmo di termalizzazione compatibili con le condizioni di non-equilibrio del sistema. Dall’analisi delle prove condotte sono emerse variazioni significative nei comportamenti collettivi dei campioni quali segregazioni e flussi coerenti caratterizzati da un alto grado di ordine nematico. Il modello proposto, pur nella nella sua semplicità, può costituire una base per future e più specifiche simulazioni.
Resumo:
Il CP-ESFR è un progetto integrato di cooperazione europeo sui reattori a sodio SFR realizzato sotto il programma quadro EURATOM 7, che unisce il contributo di venticinque partner europei. Il CP-ESFR ha l'ambizione di contribuire all'istituzione di una "solida base scientifica e tecnica per il reattore veloce refrigerato a sodio, al fine di accelerare gli sviluppi pratici per la gestione sicura dei rifiuti radioattivi a lunga vita, per migliorare le prestazioni di sicurezza, l'efficienza delle risorse e il costo-efficacia di energia nucleare al fine di garantire un sistema solido e socialmente accettabile di protezione della popolazione e dell'ambiente contro gli effetti delle radiazioni ionizzanti. " La presente tesi di laurea è un contributo allo sviluppo di modelli e metodi, basati sull’uso di codici termo-idraulici di sistema, per l’ analisi di sicurezza di reattori di IV Generazione refrigerati a metallo liquido. L'attività è stata svolta nell'ambito del progetto FP-7 PELGRIMM ed in sinergia con l’Accordo di Programma MSE-ENEA(PAR-2013). Il progetto FP7 PELGRIMM ha come obbiettivo lo sviluppo di combustibili contenenti attinidi minori 1. attraverso lo studio di due diverse forme: pellet (oggetto della presente tesi) e spherepac 2. valutandone l’impatto sul progetto del reattore CP-ESFR. La tesi propone lo sviluppo di un modello termoidraulico di sistema dei circuiti primario e intermedio del reattore con il codice RELAP5-3D© (INL, US). Tale codice, qualificato per il licenziamento dei reattori nucleari ad acqua, è stato utilizzato per valutare come variano i parametri del core del reattore rilevanti per la sicurezza (es. temperatura di camicia e di centro combustibile, temperatura del fluido refrigerante, etc.), quando il combustibile venga impiegato per “bruciare” gli attinidi minori (isotopi radioattivi a lunga vita contenuti nelle scorie nucleari). Questo ha comportato, una fase di training sul codice, sui suoi modelli e sulle sue capacità. Successivamente, lo sviluppo della nodalizzazione dell’impianto CP-ESFR, la sua qualifica, e l’analisi dei risultati ottenuti al variare della configurazione del core, del bruciamento e del tipo di combustibile impiegato (i.e. diverso arricchimento di attinidi minori). Il testo è suddiviso in sei sezioni. La prima fornisce un’introduzione allo sviluppo tecnologico dei reattori veloci, evidenzia l’ambito in cui è stata svolta questa tesi e ne definisce obbiettivi e struttura. Nella seconda sezione, viene descritto l’impianto del CP-ESFR con attenzione alla configurazione del nocciolo e al sistema primario. La terza sezione introduce il codice di sistema termico-idraulico utilizzato per le analisi e il modello sviluppato per riprodurre l’impianto. Nella sezione quattro vengono descritti: i test e le verifiche effettuate per valutare le prestazioni del modello, la qualifica della nodalizzazione, i principali modelli e le correlazioni più rilevanti per la simulazione e le configurazioni del core considerate per l’analisi dei risultati. I risultati ottenuti relativamente ai parametri di sicurezza del nocciolo in condizioni di normale funzionamento e per un transitorio selezionato sono descritti nella quinta sezione. Infine, sono riportate le conclusioni dell’attività.
Resumo:
I capodogli (Physeter macrocephalus) sono mammiferi marini con distribuzione cosmopolita; sono presenti anche nel Mar Mediterraneo, soprattutto nella zona occidentale del bacino. Per individuare la presenza di questi animali possono essere utilizzate differenti modalità. Questo studio è stato condotto tramite l’uso di metodi acustici passivi, in quanto i capodogli (P. macrocephalus) sono animali che emettono suoni. L’uso di metodi acustici ha alcuni vantaggi, infatti permette di individuare la presenza di un animale anche se si trova al di sotto della superficie dell’acqua, purché stia emettendo suoni. Le registrazioni possono essere effettuate indipendentemente dalle condizioni meteorologiche e per lunghi periodi di tempo, permettendo la continuità nella raccolta dei dati. Il lavoro di tesi è stato svolto nell’ambito di un Progetto di Ricerca de L’Oceanogràfic di Valencia. Le registrazioni sono state effettuate tramite lo strumento EAR (Ecological Acoustic Recorder) in due aree del Mar Balear, il Mar di Bamba e il Parco Nazionale di Cabrera, in differenti periodi, profondità e con diverse frequenze di campionamento (50 kHz e 5 kHz). I dati ottenuti sono stati analizzati tramite i programmi X-BAT (Extensible Bioacoustic Tool) e Adobe Audition 3.0 al fine di rilevare i pulsi emessi dai capodogli. Per entrambe le aree di studio i dati sono stati elaborati in modo da ottenere modelli giornalieri e stagionali delle ore positive e del numero di pulsi emessi. La presenza di P. macrocephalus è stata confermata in entrambe le aree di studio, e dal confronto delle analisi spettrali dei pulsi si può affermare che, nonostante le differenze, i pulsi registrati in entrambe le aree sono effettivamente emessi da capodogli. Il lavoro di Tesi permette di suggerire che per futuri studi sia applicata la frequenza di registrazione di 20 kHz utilizzando lo strumento SAMARUC, alla cui progettazione ha partecipato L’Oceanogràfic di Valencia.