999 resultados para ventricolare, modello, archivio
Resumo:
The aim of this work is to present various aspects of numerical simulation of particle and radiation transport for industrial and environmental protection applications, to enable the analysis of complex physical processes in a fast, reliable, and efficient way. In the first part we deal with speed-up of numerical simulation of neutron transport for nuclear reactor core analysis. The convergence properties of the source iteration scheme of the Method of Characteristics applied to be heterogeneous structured geometries has been enhanced by means of Boundary Projection Acceleration, enabling the study of 2D and 3D geometries with transport theory without spatial homogenization. The computational performances have been verified with the C5G7 2D and 3D benchmarks, showing a sensible reduction of iterations and CPU time. The second part is devoted to the study of temperature-dependent elastic scattering of neutrons for heavy isotopes near to the thermal zone. A numerical computation of the Doppler convolution of the elastic scattering kernel based on the gas model is presented, for a general energy dependent cross section and scattering law in the center of mass system. The range of integration has been optimized employing a numerical cutoff, allowing a faster numerical evaluation of the convolution integral. Legendre moments of the transfer kernel are subsequently obtained by direct quadrature and a numerical analysis of the convergence is presented. In the third part we focus our attention to remote sensing applications of radiative transfer employed to investigate the Earth's cryosphere. The photon transport equation is applied to simulate reflectivity of glaciers varying the age of the layer of snow or ice, its thickness, the presence or not other underlying layers, the degree of dust included in the snow, creating a framework able to decipher spectral signals collected by orbiting detectors.
Resumo:
L’obbiettivo di questa tesi è ottenere un modello agli elementi finiti che simuli la prova a compressione su un campione di materiale composito a matrice polimerica rinforzata con fibre di carbonio unidirezionali (UD), mediante l’utilizzo di una attrezzatura denominata Combined Loading Compression (CLC) Test Fixture. Il programma utilizzato per realizzare il modello agli elementi finiti è Abaqus della Simulia. Il materiale oggetto dello studio è un prepreg UD di interesse nel settore automobilistico, e fa seguito ad una campagna di prove sperimentali (caratterizzazione a compressione) svolta nei laboratori ENEA di Faenza, dove opera l’Unità Tecnica Tecnologie dei Materiali Faenza (UTTMATF).
Resumo:
La tesi ha avuto ad oggetto l'evoluzione dell’onda di piena del fiume Fiora nella mattinata del 12/11/2012, a monte dello sbarramento di Vulci (Enel S.p.a.), la quale ha determinato il superamento della quota di massimo invaso dell’impianto e ha messo in evidenza come le equazioni descrittive, presenti all’interno del Foglio di Condizione e Manutenzione dell’Impianto (F.C.E.M), non siano rappresentative della reale capacità di scarico della diga. Sulle base di queste osservazioni è stato adottato un modello matematico sfruttando il codice di calcolo HEC-RAS per la valutazione della massima portata scaricabile dagli scarichi dell’impianto in occasione di eventi di piena particolarmente intensi. Dallo studio si è ricavato che la portata massima scaricata della diga durante l’evento suddetto è risultata circa 1430 m3/s, mentre la massima portata affluita all’impianto è risultata circa 1450 m3/s, valore potenzialmente sfruttabile per una revisione della sicurezza idraulica dello sbarramento.
Resumo:
In questa tesi è stato affrontato un metodo sperimentale per la caratterizzazione elettromagnetica di un materiale plastico, ovvero l'acetato di cellulosa, fornito all'Università da una azienda della regione interessata ad un futuro impiego dell'acetato come materiale principale nelle "cover" di smartphone di ultima generazione. Il fine principale è quello di determinare le principali proprietà dielettriche del materiale, ovvero la permettività relativa o costante dielettrica e il fattore di dissipazione, o tangente di perdita, la cui conoscenza risulta il primo passo per per lo scopo iniziale dell'azienda. Il metodo impiegato fa uso di un risonatore in microstriscia a T, dato che il pattern della metallizzazione superiore assume questa forma. In questa tecnica avviene un confronto tra un prototipo reale di riferimento analizzato con VNA e un modello dello stesso risonatore realizzato all'interno del simulatore elettromagnetico CST, in particolare un confronto tra le frequenze di risonanza dei due casi, ricavate dall'andamento risonante dell'ampiezza di S21. I valori di permettività relativa e tangente di perdita vengono ricavati realizzando una moltitudine di simulazioni con CST fino a trovare il modello più simile al prototipo reale.
Resumo:
La stima degli indici idrometrici in bacini non strumentati rappresenta un problema che la ricerca internazionale ha affrontato attraverso il cosiddetto PUB (Predictions on Ungauged Basins – IAHS, 2002-2013). Attraverso l’analisi di un’area di studio che comprende 61 bacini del Sud-Est americano, si descrivono e applicano due tecniche di stima molto diverse fra loro: il metodo regressivo ai Minimi Quadrati Generalizzati (GLS) e il Topological kriging (TK). Il primo considera una serie di fattori geomorfoclimatici relativi ai bacini oggetto di studio, e ne estrae i pesi per un modello di regressione lineare dei quantili; il secondo è un metodo di tipo geostatistico che considera il quantile come una variabile regionalizzata su supporto areale (l’area del bacino), tenendo conto della dislocazione geografica e l’eventuale struttura annidata dei bacini d’interesse. L’applicazione di questi due metodi ha riguardato una serie di quantili empirici associati ai tempi di ritorno di 10, 50, 100 e 500 anni, con lo scopo di valutare le prestazioni di un loro possibile accoppiamento, attraverso l’interpolazione via TK dei residui GLS in cross-validazione jack-knife e con differenti vicinaggi. La procedura risulta essere performante, con un indice di efficienza di Nash-Sutcliffe pari a 0,9 per tempi di ritorno bassi ma stazionario su 0,8 per gli altri valori, con un trend peggiorativo all’aumentare di TR e prestazioni pressoché invariate al variare del vicinaggio. L’applicazione ha mostrato che i risultati possono migliorare le prestazioni del metodo GLS ed essere paragonabili ai risultati del TK puro, confermando l’affidabilità del metodo geostatistico ad applicazioni idrologiche.
Resumo:
Questa tesi di laurea curriculare si propone come una lettura critica del percorso personale formativo universitario, attraverso l’analisi di tre specifiche e diverse esperienze progettuali, che hanno affrontato con varie accezioni il tema del “Riciclaggio” in architettura. Perché questa ricerca? Il riuso e la rivitalizzazione di materiali, edifici e intere parti di città si pone in stretta connessione con i principi di sviluppo sostenibile, perché concretizza un approccio conservativo di risorse, materiali o ambientali che hanno concluso un loro ciclo di vita; questi devono essere reinventati per essere re-immessei in un nuovo ciclo, producendo nuovo valore e vantaggi importanti in termini di risparmio e sostenibilità per la collettività. La notevole quantità di edifici e aree costruite non utilizzate presenti sul nostro territorio, insieme all’avanzamento della cultura del riciclo e delle tecnologie di recupero, impongono ad un architetto di ripensare un futuro per edifici e porzioni di città che hanno esaurito una fase del loro ciclo di vita, trovando un punto di equilibrio fra conservazione della memoria, adeguamento delle funzioni e innovazione delle tecniche. Oggi tutti i processi di produzione, tra cui quello dell’edilizia, sono tenuti al rispetto di norme e disposizioni per la riduzione dell’impatto ambientale, il risparmio e il recupero delle risorse: per questo i progettisti che nella scena mondiale hanno affrontato nelle loro opere la pratica del riciclo e del riuso si pongono come importanti riferimenti. La prima parte della tesi si compone di tre capitoli: nel primo viene introdotto il tema del consumo delle risorse. A questo proposito il riciclaggio di risorse, che in passato è stato considerato solo un modo per attenuare gli effetti negativi indotti dal nostro modello di sviluppo consumistico, oggi si presenta come un’opportunità di riflessione per molte attività di progettazione di oggetti, da quelli di consumo alle architetture, impegnate nella ricerca di soluzioni più sostenibili; nel secondo capitolo viene delineato il concetto di riciclo delle risorse come risposta allo sviluppo incontrollato e alla insostenibilità dello stile di vita indotto da un modello economico basato sulla pratica “usa e getta”. Nel terzo capitolo verrà esaminato il concetto di riciclo a varie scale d’intervento, dal riuso e riordino del territorio e della città, al riciclo degli edifici fino al riciclaggio di materiale. Saranno presentati alcuni casi studio significativi nel panorama mondiale. Nella seconda parte la tesi si propone una lettura critica di tre progetti realizzati durante la carriera universitaria, tutti caratterizzati dalla necessità di rapportarsi con importanti preesistenze, mediante strategie di rivitalizzazione dell’edificio o della porzione di città interessata dal progetto.
Resumo:
Tradizionalmente, l'obiettivo della calibrazione di un modello afflussi-deflussi è sempre stato quello di ottenere un set di parametri (o una distribuzione di probabilità dei parametri) che massimizzasse l'adattamento dei dati simulati alla realtà osservata, trattando parzialmente le finalità applicative del modello. Nel lavoro di tesi viene proposta una metodologia di calibrazione che trae spunto dell'evidenza che non sempre la corrispondenza tra dati osservati e simulati rappresenti il criterio più appropriato per calibrare un modello idrologico. Ai fini applicativi infatti, può risultare maggiormente utile una miglior rappresentazione di un determinato aspetto dell'idrogramma piuttosto che un altro. Il metodo di calibrazione che viene proposto mira a valutare le prestazioni del modello stimandone l'utilità nell'applicazione prevista. Tramite l'utilizzo di opportune funzioni, ad ogni passo temporale viene valutata l'utilità della simulazione ottenuta. La calibrazione viene quindi eseguita attraverso la massimizzazione di una funzione obiettivo costituita dalla somma delle utilità stimate nei singoli passi temporali. Le analisi mostrano come attraverso l'impiego di tali funzioni obiettivo sia possibile migliorare le prestazioni del modello laddove ritenute di maggior interesse per per le finalità applicative previste.
Resumo:
Entro l’approccio concettuale e metodologico transdisciplinare della Scienza della Sostenibilità, la presente tesi elabora un background teorico per concettualizzare una definizione di sostenibilità sulla cui base proporre un modello di sviluppo alternativo a quello dominante, declinato in termini di proposte concrete entro il caso-studio di regolazione europea in materia di risparmio energetico. La ricerca, attraverso un’analisi transdisciplinare, identifica una crisi strutturale del modello di sviluppo dominante basato sulla crescita economica quale (unico) indicatore di benessere e una crisi valoriale. L’attenzione si concentra quindi sull’individuazione di un paradigma idoneo a rispondere alle criticità emerse dall’analisi. A tal fine vengono esaminati i concetti di sviluppo sostenibile e di sostenibilità, arrivando a proporre un nuovo paradigma (la “sostenibilità ecosistemica”) che dia conto dell’impossibilità di una crescita infinita su un sistema caratterizzato da risorse limitate. Vengono poi presentate delle proposte per un modello di sviluppo sostenibile alternativo a quello dominante. Siffatta elaborazione teorica viene declinata in termini concreti mediante l’elaborazione di un caso-studio. A tal fine, viene innanzitutto analizzata la funzione della regolazione come strumento per garantire l’applicazione pratica del modello teorico. L’attenzione è concentrata sul caso-studio rappresentato dalla politica e regolazione dell’Unione Europea in materia di risparmio ed efficienza energetica. Dall’analisi emerge una progressiva commistione tra i due concetti di risparmio energetico ed efficienza energetica, per la quale vengono avanzate delle motivazioni e individuati dei rischi in termini di effetti rebound. Per rispondere alle incongruenze tra obiettivo proclamato dall’Unione Europea di riduzione dei consumi energetici e politica effettivamente perseguita, viene proposta una forma di “regolazione per la sostenibilità” in ambito abitativo residenziale che, promuovendo la condivisione dei servizi energetici, recuperi il significato proprio di risparmio energetico come riduzione del consumo mediante cambiamenti di comportamento, arricchendolo di una nuova connotazione come “bene relazionale” per la promozione del benessere relazionale ed individuale.
Resumo:
Il sistema comune europeo dell’imposta sul valore aggiunto privilegia caratteri e finalità economiche nel definire chi siano gli operatori economici soggetti all’IVA. Una disciplina particolare è, tuttavia, prevista per i soggetti di diritto pubblico che, oltre alla principale attività istituzionale, esercitano un’attività di carattere economico. Ai sensi dell’articolo 13 della Direttiva del 28 novembre 2006, 2006/112/CE, gli Stati, le Regioni, le Province, i Comuni e gli altri enti di diritto pubblico, in relazione alle attività ed operazioni che essi effettuano in quanto pubbliche autorità, non sono considerati soggetti passivi IVA anche se in relazione ad esse percepiscono diritti, canoni, contributi o retribuzioni. La vigente disciplina europea delle attività economiche esercitate dagli enti pubblici, oltre che inadeguata al contesto economico attuale, rischia di diventare un fattore che influenza negativamente l’efficacia del modello impositivo dell’IVA e l’agire degli enti pubblici. La tesi propone un modello alternativo che prevede l’inversione dell’impostazione attuale della Direttiva IVA al fine di considerare, di regola, soggetti passivi IVA gli organismi pubblici che svolgono - ancorché nella veste di pubblica autorità - attività oggettivamente economiche.
Resumo:
In Medicina Veterinaria l'avvelenamento da rodenticidi anticoagulanti è conosciuto e studiato ormai da anni, essendo una delle intossicazioni più comunemente riscontrate nelle specie non target. In letteratura si rinvengono numerose pubblicazioni ma alcuni aspetti sono rimasti ancora inesplorati.Questo studio si propone di valutare il processo infiammatorio, mediante le proteine di fase acuta (APPs), in corso di fenomeni emorragici, prendendo come modello reale un gruppo di soggetti accidentalmente avvelenati da rodenticidi anticoagulanti. I 102 soggetti avvelenati presentano un valore più elevato di proteina C reattiva (CRP)con una mediana di 4.77 mg/dl statisticamente significativo rispetto alla mediana delle due popolazioni di controllo di pari entità numerica create con cross match di sesso, razza ed età; rispettivamente 0.02 mg/dl dei soggetti sani e 0.37 mg/dl dei soggetti malati di altre patologie. Inoltre all'interno del gruppo dei soggetti avvelenati un valore di CRP elevato all'ammissione può predisporre al decesso. La proteina C reattiva assume quindi un ruolo diagnostico e prognostico in questo avvelenamento. Un'altra finalità, di non inferiore importanza, è quella di definire una linea guida terapeutica con l'ausilio di biomarker coagulativi e di valutare la sicurezza della vitamina K per via endovenosa: in 73 cani, non in terapia con vitamina k, intossicati da rodenticidi anticoagulanti, i tempi della coagulazione (PT ed aPTT) ritornano nel range di normalità dopo 4 ore dalla prima somministrazione di 5 mg/kg di vitamina k per via endovenosa e nessun soggetto durante e dopo il trattamento ha manifestato reazioni anafilattiche, nessuno dei pazienti ha necessitato trasfusione ematica e tutti sono sopravvissuti. Infine si è valutata l'epidemiologia dell'ingestione dei prodotti rodenticidi nella specie oggetto di studio e la determinazione dei principi attivi mediante cromatografia liquida abbinata a spettrofotometria di massa (UPLC-MS/MS).
Resumo:
La tesi di dottorato ha ad oggetto il principio di consensualità nell’agere amministrativo, inteso quale principio generale dell’ordinamento, che regola un’azione della Pubblica amministrazione di necessità funzionalizzata al perseguimento dell’interesse pubblico. E’ pertanto sull’oscillazione problematica tra un rapporto duale e dicotomico, che ricorre tra la dimensione bilaterale dell’uso di moduli negoziali pubblico-privati aventi ad oggetto l’esercizio del potere pubblico, e la prospettiva generale e collettiva che sottintende la cura dell’interesse pubblico, che si riflette nell’elaborato. Materia di studio prescelta è, poi, il governo del territorio, settore dell’ordinamento ove più diffusamente si concludono accordi amministrativi tra Pubblica amministrazione e privati. In particolare, l’analisi è rivolta allo studio delle tanto nuove quanto problematiche fattispecie denominate accordi “a monte” delle prescrizioni urbanistiche, che rappresentano l’espressione più alta, al momento, del principio di consensualità. I problemi di ammissibilità giuridica posti da una parte della dottrina hanno richiesto una ricerca di un possibile fondamento positivo espresso per gli accordi “a monte”, anche al fine di mettere al riparo le leggi regionali che li disciplinano, da eventuali dubbi di legittimità costituzionale. Tale ricerca è stata condotta anche attraverso l’ausilio del diritto comparato. E’ così, stato possibile riscontrare anzitutto l’esistenza del principio di consensualità in un numero considerevole di Paesi, salve alcune eccezioni, alla cui analisi è stato dedicato ampio spazio di trattazione (in particolare, la Francia). Per altro verso, le analoghe esperienze giuridiche provenienti da altri Stati europei (in particolare, la Spagna) sono state d’ausilio per la finale elaborazione di un possibile modello di procedimento per la conclusione degli accordi “a monte”; mentre la constatazione di comuni giustificazioni dottrinali ha permesso l’elaborazione di una nuova possibile natura giuridica da riconoscere agli accordi in parola (accordi normativi) e la definizione di precise ricadute pratiche e giuridiche quanto al rapporto.
Resumo:
La simulazione realistica del movimento di pedoni riveste una notevole importanza nei mondi dell'architettonica e della sicurezza (si pensi ad esempio all'evacuazione di ambienti), nell'industria dell'entertainment e in molti altri ambiti, importanza che è aumentata negli ultimi anni. Obiettivo di questo lavoro è l'analisi di un modello di pedone esistente e l'applicazione ad esso di algoritmi di guida, l'implementazione di un modello più realistico e la realizzazione di simulazioni con particolare attenzione alla scalabilità. Per la simulazione è stato utilizzato il framework Alchemist, sviluppato all'interno del laboratorio di ricerca APICe, realizzando inoltre alcune estensioni che potranno essere inglobate nel pacchetto di distribuzione del sistema stesso. I test effettuati sugli algoritmi presi in esame evidenziano un buon guadagno in termini di tempo in ambienti affollati e il nuovo modello di pedone risulta avere un maggiore realismo rispetto a quello già esistente, oltre a superarne alcuni limiti evidenziati durante i test e ad essere facilmente estensibile.
Resumo:
In questo elaborato viene presentato lo studio ed ottimizzazione della geometria del serpentino di uno scambiatore di calore per la produzione di acqua sanitaria di tipo Puffer. L’analisi volta all’ottimizzazione del serpentino è stata eseguita con l’obiettivo di soddisfare i vincoli di progetto dello scambiatore, ovvero la portata elaborata e la temperatura di uscita dell’acqua sanitaria dallo scambiatore, ma cercando di ridurre la superficie del serpentino e quindi il costo dello scambiatore stesso, in particolare agendo su parametri geometrici quali il passo dell’elica H, il diametro dell’avvolgimento Db ed il diametro del tubo d. A tal fine è stato sviluppato un modello del processo di scambio termico all’interno dello scambiatore Puffer basato sulle equazioni di bilancio di energia e raffinato attraverso correlazioni teorico/sperimentali reperite in letteratura. In una prima fase l’ottimizzazione è stata svolta con l’ulteriore vincolo progettuale d=41mm e Db=510mm, al fine di garantire maggiore flessibilità nell’utilizzo del serpentino per altre tipologie di scambiatori. In questo caso, si è giunti ad un risparmio del 14% sull’area di scambio termico del serpentino rispetto al modello tuttora in produzione, quantificabile in una riduzione dei costi del 19% sul costo totale del Puffer. In una seconda fase si è proceduto ad una ottimizzazione libera dai vincoli d e Db, con l’obiettivo di valutare la massima riduzione di area di scambio termico del serpentino, stimata in circa il 23% nel caso in cui sia possibile in futuro valutare modifiche sostanziali alla geometria dello scambiatore. Lo studio completato dall’analisi dell’isolamento del corpo dello scambiatore, finalizzata a ridurre le dispersioni verso l’ambiente esterno. In particolare è stato valutato l’utilizzo di Isolmix, in alternativa all’esistente isolamento in pannelli di poliuretano, dimostrando come sia possibile ottenere una ulteriore riduzione del materiale impiegato e quindi dei costi di realizzazione dello scambiatore.
Resumo:
Lo scopo del presente lavoro di tesi riguarda la caratterizzazione di un sensore ottico per la lettura di ematocrito e lo sviluppo dell’algoritmo di calibrazione del dispositivo. In altre parole, utilizzando dati ottenuti da una sessione di calibrazione opportunamente pianificata, l’algoritmo sviluppato ha lo scopo di restituire la curva di interpolazione dei dati che caratterizza il trasduttore. I passi principali del lavoro di tesi svolto sono sintetizzati nei punti seguenti: 1) Pianificazione della sessione di calibrazione necessaria per la raccolta dati e conseguente costruzione di un modello black box. Output: dato proveniente dal sensore ottico (lettura espressa in mV) Input: valore di ematocrito espresso in punti percentuali ( questa grandezza rappresenta il valore vero di volume ematico ed è stata ottenuta con un dispositivo di centrifugazione sanguigna) 2) Sviluppo dell’algoritmo L’algoritmo sviluppato e utilizzato offline ha lo scopo di restituire la curva di regressione dei dati. Macroscopicamente, il codice possiamo distinguerlo in due parti principali: 1- Acquisizione dei dati provenienti da sensore e stato di funzionamento della pompa bifasica 2- Normalizzazione dei dati ottenuti rispetto al valore di riferimento del sensore e implementazione dell’algoritmo di regressione. Lo step di normalizzazione dei dati è uno strumento statistico fondamentale per poter mettere a confronto grandezze non uniformi tra loro. Studi presenti, dimostrano inoltre un mutazione morfologica del globulo rosso in risposta a sollecitazioni meccaniche. Un ulteriore aspetto trattato nel presente lavoro, riguarda la velocità del flusso sanguigno determinato dalla pompa e come tale grandezza sia in grado di influenzare la lettura di ematocrito.
Resumo:
In questi tesi viene studiata la teoria classica di diffusione del calore come modello parabolico per cui viene calcolata una soluzione attraverso il metodo di separazione delle variabili e il metodo delle onde dispersive. Viene poi affrontata la teoria alternativa proposta da Cattaneo del modello iperbolico del calore, allo scopo di superare il paradosso di velocità di propagazione infinita. Si conclude con alcuni esempi in cui lo stesso ragionamento viene applicato in diverse teorie diffusive e di reazione-diffusione in ambiti bio-matematici, come ad esempio la dinamica delle popolazioni.