999 resultados para Problema Inverso
Resumo:
BTES (borehole thermal energy storage)systems exchange thermal energy by conduction with the surrounding ground through borehole materials. The spatial variability of the geological properties and the space-time variability of hydrogeological conditions affect the real power rate of heat exchangers and, consequently, the amount of energy extracted from / injected into the ground. For this reason, it is not an easy task to identify the underground thermal properties to use when designing. At the current state of technology, Thermal Response Test (TRT) is the in situ test for the characterization of ground thermal properties with the higher degree of accuracy, but it doesn’t fully solve the problem of characterizing the thermal properties of a shallow geothermal reservoir, simply because it characterizes only the neighborhood of the heat exchanger at hand and only for the test duration. Different analytical and numerical models exist for the characterization of shallow geothermal reservoir, but they are still inadequate and not exhaustive: more sophisticated models must be taken into account and a geostatistical approach is needed to tackle natural variability and estimates uncertainty. The approach adopted for reservoir characterization is the “inverse problem”, typical of oil&gas field analysis. Similarly, we create different realizations of thermal properties by direct sequential simulation and we find the best one fitting real production data (fluid temperature along time). The software used to develop heat production simulation is FEFLOW 5.4 (Finite Element subsurface FLOW system). A geostatistical reservoir model has been set up based on literature thermal properties data and spatial variability hypotheses, and a real TRT has been tested. Then we analyzed and used as well two other codes (SA-Geotherm and FV-Geotherm) which are two implementation of the same numerical model of FEFLOW (Al-Khoury model).
Resumo:
La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.
Resumo:
I dati derivanti da spettroscopia NMR sono l'effetto di fenomeni descritti attraverso la trasformata di Laplace della sorgente che li ha prodotti. Ci si riferisce a un problema inverso con dati discreti ed in relazione ad essi nasce l'esigenza di realizzare metodi numerici per l'inversione della trasformata di Laplace con dati discreti che è notoriamente un problema mal posto e pertanto occorre ricorrere a metodi di regolarizzazione. In questo contesto si propone una variante ai modelli presenti il letteratura che fanno utilizzo della norma L2, introducendo la norma L1.
Resumo:
Il presente lavoro di tesi presenta la progettazione, realizzazione e applicazione di un setup sperimentale miniaturizzato per la ricostruzione di immagine, con tecnica di Tomografia ad Impedenza Elettrica (EIT). Il lavoro descritto nel presente elaborato costituisce uno studio di fattibilità preliminare per ricostruire la posizione di piccole porzioni di tessuto (ordine di qualche millimetro) o aggregati cellulari dentro uno scaffold in colture tissutali o cellulari 3D. Il setup disegnato incorpora 8 elettrodi verticali disposti alla periferia di una camera di misura circolare del diametro di 10 mm. Il metodo di analisi EIT è stato svolto utilizzando i) elettrodi conduttivi per tutta l’altezza della camera (usati nel modello EIT bidimensionale e quasi-bidimensionale) e ii) elettrodi per deep brain stimulation (conduttivi esclusivamente su un ridotto volume in punta e posti a tre diverse altezze: alto, centro e basso) usati nel modello EIT tridimensionale. Il metodo ad elementi finiti (FEM) è stato utilizzato per la soluzione sia del problema diretto che del problema inverso, con la ricostruzione della mappa di distribuzione della conduttività entro la camera di misura. Gli esperimenti svolti hanno permesso di ricostruire la mappa di distribuzione di conduttività relativa a campioni dell’ordine del millimetro di diametro. Tali dimensioni sono compatibili con quelle dei campioni oggetto di studio in ingegneria tissutale e, anche, con quelle tipiche dei sistemi organ-on-a-chip. Il metodo EIT sviluppato, il prototipo del setup realizzato e la trattazione statistica dei dati sono attualmente in fase di implementazione in collaborazione con il gruppo del Professor David Holder, Dept. Medical Physics and Bioengineering, University College London (UCL), United Kingdom.
Resumo:
Questa tesi si pone l'obiettivo di applicare un metodo lineare per l'inversione delle curve di dispersione delle onde superficiali di Rayleigh da rumore sismico, al fine di descrivere con maggior definizione la struttura della crosta terrestre in corrispondenza dell'Italia settentrionale e confrontarlo con il modello di riferimento. Si è fatto uso del processo di cross-correlazione applicato al rumore sismico per ricostruire la Funzione di Green per ogni coppia di stazioni. Sono state considerate circa 100 stazioni, tutte nel Nord-Italia. I segnali ottenuti sono costituiti principalmente da onde di superficie, in particolare onde di Rayleigh, le quali dominano i segnali in ampiezza. Per periodi compresi tra 1s e 50s, per ogni raggio tra coppie di stazioni, è stata misurata la velcoità di gruppo tramite l'utilizzo del software EGFAnalysisTimeFreq per Matlab. Le curve di dispersione così ottenute sono state utilizzate come dato per la risoluzione del problema inverso, al fine di ottenere mappe2D della velocità di gruppo che è fortemente dipendente dalle caratteristiche del mezzo. Infine queste ultime sono state confrontate con mappe di un modello esistente per la regione (Molinari et al. [22]).
Resumo:
Il funzionamento del cervello umano, organo responsabile di ogni nostra azione e pensiero, è sempre stato di grande interesse per la ricerca scientifica. Dopo aver compreso lo sviluppo dei potenziali elettrici da parte di nuclei neuronali in risposta a stimoli, si è riusciti a graficare il loro andamento con l'avvento dell'ElettroEncefaloGrafia (EEG). Tale tecnologia è entrata a far parte degli esami di routine per la ricerca di neuropsicologia e di interesse clinico, poiché permette di diagnosticare e discriminare i vari tipi di epilessia, la presenza di traumi cranici e altre patologie del sistema nervoso centrale. Purtroppo presenta svariati difetti: il segnale è affetto da disturbi e richiede un'adeguata elaborazione tramite filtraggio e amplificazione, rimanendo comunque sensibile a disomogeneità dei tessuti biologici e rendendo difficoltoso il riconoscimento delle sorgenti del segnale che si sono attivate durante l'esame (il cosiddetto problema inverso). Negli ultimi decenni la ricerca ha portato allo sviluppo di nuove tecniche d'indagine, di particolare interesse sono la ElettroEncefaloGrafia ad Alta Risoluzione (HREEG) e la MagnetoEncefaloGrafia (MEG). L'HREEG impiega un maggior numero di elettrodi (fino a 256) e l'appoggio di accurati modelli matematici per approssimare la distribuzione di potenziale elettrico sulla cute del soggetto, garantendo una migliore risoluzione spaziale e maggior sicurezza nel riscontro delle sorgenti neuronali. Il progresso nel campo dei superconduttori ha reso possibile lo sviluppo della MEG, che è in grado di registrare i deboli campi magnetici prodotti dai segnali elettrici corticali, dando informazioni immuni dalle disomogeneità dei tessuti e andando ad affiancare l'EEG nella ricerca scientifica. Queste nuove tecnologie hanno aperto nuovi campi di sviluppo, più importante la possibilità di comandare protesi e dispositivi tramite sforzo mentale (Brain Computer Interface). Il futuro lascia ben sperare per ulteriori innovazioni.
Resumo:
Se presenta la posibilidad de aplicación de la teoría de la fiabilidad estructural al cálculo de los márgenes de seguridad en túneles excavados. Tras una breve introducción a los procedimientos existentes para analizar la incertidumbre y de examinar las limitaciones de los coeficientes de seguridad tal como se definen habitualmente, se precisan los estados límites propuestos así como las variables aleatorias y la metodología aplicada. Se presenta también un ejemplo sencillo basado en un caso real y se termina con algunas conclusiones entre las que destaca la posibilidad de utilizar el método para resolver el problema inverso de identificación de propiedades.
Resumo:
El problema inverso de la búsqueda de fuentes MEG consiste en la obtención de la distribución de los dipolos de corriente (fuentes) en el interior de la cabeza de un paciente a partir de las mediciones de campo electromagnético obtenidas en la superficie (magnetoencefalograma, MEG). Para obtener estos datos, en el ámbito científico se utiliza el algoritmo beamforming, comúnmente aceptado, cuyos resultados ofrecen un pequeño margen de error debido a la naturaleza del problema. Esta memoria desarrolla el trabajo realizado para optimizar un algoritmo de búsqueda aleatoria, Solis-Wets, utilizado para investigar la posibilidad de su aplicación en el ámbito científico, en sustitución del anteriormente mencionado, beamforming. También se estudiará la acción de encadenar ambos algoritmos, tomando como datos de entrada del algoritmo Solis-Wets aquellos proporcionados como solución por el algoritmo beamforming con objeto de minimizar el error en el que éste incurre. Esta optimización es necesaria para que la alternativa sea viable debido al tiempo necesario en su ejecución, e incluye el uso de bibliotecas auxiliares, así como la paralelización del código. Para la evaluación del algoritmo se han medido tanto la velocidad de generación de soluciones como el error de la mejor solución tras un número determinado de soluciones generadas. Como variables para esta evaluación se han tomado distintos compiladores, distintas soluciones de partida, precisión de los datos, así como el uso de distintas bibliotecas matemáticas disponibles.
Resumo:
Le pitture intumescenti sono utilizzate come protettivi passivi antincendio nel settore delle costruzioni. In particolare sono utilizzate per aumentare la resistenza al fuoco di elementi in acciaio. Le proprietà termiche di questi rivestimenti sono spesso sconosciute o difficili da stimare per via del fatto che variano notevolmente durante il processo di espansione che subisce l’intumescente quando esposto al calore di un incendio. Per questa ragione la validazione della resistenza al fuoco di un rivestimento presente in commercio si basa su metodi costosi economicamente e come tempi di esecuzione nel quale ciascuna trave e colonna rivestita di protettivo deve essere testata una alla volta attraverso il test di resistenza al fuoco della curva cellulosica. In questo lavoro di tesi adottando invece un approccio basato sulla modellazione termica del rivestimento intumescente si ottiene un aiuto nella semplificazione della procedura di test ed un supporto nella progettazione della resistenza al fuoco delle strutture. Il tratto di unione nei vari passaggi della presente tesi è stata la metodologia di stima del comportamento termico sconosciuto, tale metodologia di stima è la “Inverse Parameter Estimation”. Nella prima fase vi è stata la caratterizzazione chimico fisica della vernice per mezzo di differenti apparecchiature come la DSC, la TGA e l’FT-IR che ci hanno permesso di ottenere la composizione qualitativa e le temperature a cui avvengono i principali processi chimici e fisici che subisce la pittura come anche le entalpie legate a questi eventi. Nella seconda fase si è proceduto alla caratterizzazione termica delle pitture al fine di ottenerne il valore di conduttività termica equivalente. A tale scopo si sono prima utilizzate le temperature dell’acciaio di prove termiche alla fornace con riscaldamento secondo lo standard ISO-834 e successivamente per meglio definire le condizioni al contorno si è presa come fonte di calore un cono calorimetrico in cui la misura della temperatura avveniva direttamente nello spessore del’intumescente. I valori di conduttività ottenuti sono risultati congruenti con la letteratura scientifica e hanno mostrato la dipendenza della stessa dalla temperatura, mentre si è mostrata poco variante rispetto allo spessore di vernice deposto ed alla geometria di campione utilizzato.
Resumo:
A practical approach to estimate rock thermal conductivities is to use rock models based just on the observed or expected rock mineral content. In this study, we evaluate the performances of the Krischer and Esdorn (KE), Hashin and Shtrikman (HS), classic Maxwell (CM), Maxwell-Wiener (MW), and geometric mean (GM) models in reproducing the measures of thermal conductivity of crystalline rocks.We used 1,105 samples of igneous and metamorphic rocks collected in outcroppings of the Borborema Province, Northeastern Brazil. Both thermal conductivity and petrographic modal analysis (percent volumes of quartz, K-feldspar, plagioclase, and sum of mafic minerals) were done. We divided the rocks into two groups: (a) igneous and ortho-derived (or meta-igneous) rocks and (b) metasedimentary rocks. The group of igneous and ortho-derived rocks (939 samples) covers most the lithologies de_ned in the Streckeisen diagram, with higher concentrations in the fields of granite, granodiorite, and tonalite. In the group of metasedimentary rocks (166 samples), it were sampled representative lithologies, usually of low to medium metamorphic grade. We treat the problem of reproducing the measured values of rock conductivity as an inverse problem where, besides the conductivity measurements, the volume fractions of the constituent minerals are known and the effective conductivities of the constituent minerals and model parameters are unknown. The key idea was to identify the model (and its associated estimates of effective mineral conductivities and parameters) that better reproduces the measures of rock conductivity. We evaluate the model performances by the quantity that is equal to the percentage of number of rock samples which estimated conductivities honor the measured conductivities within the tolerance of 15%. In general, for all models, the performances were quite inferior for the metasedimentary rocks (34% < < 65%) as compared with the igneous and ortho-derived rocks (51% < < 70%). For igneous and ortho-derived rocks, all model performances were very similar ( = 70%), except the GM-model that presented a poor performance (51% < < 65%); the KE and HS-models ( = 70%) were slightly superior than the CM and MW-models ( = 67%). The quartz content is the dominant factor in explaining the rock conductivity for igneous and ortho-derived rocks; in particular, using the MW-model the solution is in practice vi UFRN/CCET– Dissertação de mestrado the series association of the quartz content. On the other hand, for metasedimentary rocks, model performances were different and the performance of the KEmodel ( = 65%) was quite superior than the HS ( = 53%), CM (34% < < 42%), MW ( = 40%), and GM (35% < < 42%). The estimated effective mineral conductivities are stable for perturbations both in the rock conductivity measures and in the quartz volume fraction. The fact that the metasedimentary rocks are richer in platy-minerals explains partially the poor model performances, because both the high thermal anisotropy of biotite (one of the most common platy-mineral) and the difficulty in obtaining polished surfaces for measurement coupling when platyminerals are present. Independently of the rock type, both very low and very high values of rock conductivities are hardly explained by rock models based just on rock mineral content.
Resumo:
O presente trabalho descreve um estudo sobre a metodologia matemática para a solução do problema direto e inverso na Tomografia por Impedância Elétrica. Este estudo foi motivado pela necessidade de compreender o problema inverso e sua utilidade na formação de imagens por Tomografia por Impedância Elétrica. O entendimento deste estudo possibilitou constatar, através de equações e programas, a identificação das estruturas internas que constituem um corpo. Para isto, primeiramente, é preciso conhecer os potencias elétricos adquiridos nas fronteiras do corpo. Estes potenciais são adquiridos pela aplicação de uma corrente elétrica e resolvidos matematicamente pelo problema direto através da equação de Laplace. O Método dos Elementos Finitos em conjunção com as equações oriundas do eletromagnetismo é utilizado para resolver o problema direto. O software EIDORS, contudo, através dos conceitos de problema direto e inverso, reconstrói imagens de Tomografia por Impedância Elétrica que possibilitam visualizar e comparar diferentes métodos de resolução do problema inverso para reconstrução de estruturas internas. Os métodos de Tikhonov, Noser, Laplace, Hiperparamétrico e Variação Total foram utilizados para obter uma solução aproximada (regularizada) para o problema de identificação. Na Tomografia por Impedância Elétrica, com as condições de contorno preestabelecidas de corrente elétricas e regiões definidas, o método hiperparamétrico apresentou uma solução aproximada mais adequada para reconstrução da imagem.
Resumo:
Injectivity decline, which can be caused by particle retention, generally occurs during water injection or reinjection in oil fields. Several mechanisms, including straining, are responsible for particle retention and pore blocking causing formation damage and injectivity decline. Predicting formation damage and injectivity decline is essential in waterflooding projects. The Classic Model (CM), which incorporates filtration coefficients and formation damage functions, has been widely used to predict injectivity decline. However, various authors have reported significant discrepancies between Classical Model and experimental results, motivating the development of deep bed filtration models considering multiple particle retention mechanisms (Santos & Barros, 2010; SBM). In this dissertation, inverse problem solution was studied and a software for experimental data treatment was developed. Finally, experimental data were fitted using both the CM and SBM. The results showed that, depending on the formation damage function, the predictions for injectivity decline using CM and SBM models can be significantly different
Resumo:
Nella tesi studiamo le densità con la proprietà di media per i sub-Laplaciani. In particolare determiniamo un’espressione generale per una densità positiva con la proprietà di media, su un insieme Ω generico che soddisfi certe prorpietà di regolarità. Troviamo inoltre delle stime della funzione di Green e del nucleo di Poisson per un qualsiasi sub-Laplaciano su un generico gruppo di Carnot e tramite queste stime troviamo delle condizioni sufficienti affinchè, con la densità precedentemente trovata, si possa avere una struttura di Γ-tripla sull’insieme Ω. Studiamo infine un problema inverso per il quale sarà fondamentale avere una struttura di Γ-tripla.
Resumo:
Three dimensional (3D) printers of continuous fiber reinforced composites, such as MarkTwo (MT) by Markforged, can be used to manufacture such structures. To date, research works devoted to the study and application of flexible elements and CMs realized with MT printer are only a few and very recent. A good numerical and/or analytical tool for the mechanical behavior analysis of the new composites is still missing. In addition, there is still a gap in obtaining the material properties used (e.g. elastic modulus) as it is usually unknown and sensitive to printing parameters used (e.g. infill density), making the numerical simulation inaccurate. Consequently, the aim of this thesis is to present several work developed. The first is a preliminary investigation on the tensile and flexural response of Straight Beam Flexures (SBF) realized with MT printer and featuring different interlayer fiber volume-fraction and orientation, as well as different laminate position within the sample. The second is to develop a numerical analysis within the Carrera' s Unified Formulation (CUF) framework, based on component-wise (CW) approach, including a novel preprocessing tool that has been developed to account all regions printed in an easy and time efficient way. Among its benefits, the CUF-CW approach enables building an accurate database for collecting first natural frequencies modes results, then predicting Young' s modulus based on an inverse problem formulation. To validate the tool, the numerical results are compared to the experimental natural frequencies evaluated using a digital image correlation method. Further, we take the CUF-CW model and use static condensation to analyze smart structures which can be decomposed into a large number of similar components. Third, the potentiality of MT in combination with topology optimization and compliant joints design (CJD) is investigated for the realization of automated machinery mechanisms subjected to inertial loads.
Resumo:
La Macchina di Boltzmann Ristretta (RBM) è una rete neurale a due strati utilizzata principalmente nell'apprendimento non supervisionato. La sua capacità nel rappresentare complesse relazioni insite nei dati attraverso distribuzioni di tipo Boltzmann Gibbs la rende un oggetto particolarmente interessante per un approfondimento teoretico in ambito fisico matematico. In questa tesi vengono presentati due ambiti di applicazione della meccanica statistica all'apprendimento automatico. 1) La similarità della RBM a unità binarie con il modello di Ising permette di sfruttare un'espansione alle alte temperature per approssimare l'energia libera, termine presente nel gradiente della likelihoood e difficile da trattare numericamente. I risultati ottenuti con questa tecnica sul dataset MNIST sono paragonabili a quelli ottenuti dalla Contrastive Divergence, che utilizza invece metodi di Monte Carlo. 2) L'equivalenza statistica della variante ibrida di RBM con il modello di Hopfield permette di studiare la taglia del training set necessaria per l'apprendimento attraverso l'analisi del problema inverso, in cui i ruoli di spin e pattern sono invertiti. Viene quindi presentato un metodo basato sulla teoria di Gauge che permette di derivare il diagramma di fase del modello di Hopfield duale sulla linea di Nishimori in funzione della temperatura e del rapporto tra numero di campioni e dimensione del sistema.