999 resultados para EIT,problema inverso,mal condizionamento,imaging,tomografia elettrica,python
Resumo:
La justicia transicional constituye una concepción democrática de la justicia que analiza la forma como sociedades afectadas por masivas violaciones de derechos humanos causadas por una guerra civil, un conflicto violento o por regímenes dictatoriales, pueden hacer tránsito a regímenes democráticos en los que se pueda garantizar una paz duradera. Este libro contiene veinte artículos de expertos nacionales e internacionales sobre la justicia transicional, la democracia, los conflictos violentos y el problema del mal, los cuales ofrecen al lector una serie de análisis teóricos, normativos y de experiencias reales de procesos de transición democrática en el mundo, que incluyen casos tan relevantes como el de Sudáfrica y Argentina. De igual forma, muchos de ellos hacen referencia al caso colombiano y a las negociaciones del Gobierno colombiano con los grupos paramilitares y la Ley de Justicia y Paz.
Resumo:
Este trabajo surgió del interés de un grupo de profesores para dar solución a uno de los principales inconvenientes de la enseñanza de las matemáticas: la resolución de problemas. Participan cinco centros de EGB y dos de bachillerato, todos ellos de la isla de La Palma, con un total de doce docentes. Objetivos: -Aumentar la capacidad de razonamiento a través del lenguaje de las matemáticas. -Traducción de situaciones reales al lenguaje matemático. -Favorecer la interpretación de situaciones reales. -Aprendizaje de conceptos matemáticos a través del análisis de problemas. -Sistematizar razonadamente las pautas para la resolución de cualquier problema. -Traducción de datos matemáticos (estadísticos) al lenguaje cotidiano. -Fomentar el orden, la limpieza y presentación del trabajo escrito. En la primera reunión se trataron los siguientes aspectos: -la formación de los grupos de trabajo donde estuvieran representados profesorado de EGB y de Medias. Se decidió aplicar el modelo POLYA para la resolución de problemas. Se elaborá una guía única para la resolución de problemas donde se recogen varios apartados: 1. Comprender el problema. 2. Cómo podemos resolverlo. 3. Ejecución de un plan. 4. Visión retrospectiva. 5. Evaluación de los alumnos. Una vez pasados todos los datos a la tabla de resultados se concluye: -Las dudas en los distintos niveles están más en el planteamiento que en la resolución del mismo. -El enunciado del problema está mal secuenciado para el orden lógico que tienen desarrollado hasta el momento los alumnos. -Se observa de forma general, que el alumno no es capaz de traducir al lenguaje matemático el texto y por tanto no lo plantean. -La falta de concentración y motivación de los alumnos impide, en la mayoría de los casos , obtener mejores resultados. -El alto porcentaje de problemas en blanco en distintos niveles, pensamos que se debe a la no adaptación del mismo al temario que se imparte en ese momento en el aula. Resultados: de los objetivos planteados al principio del trabajo realmente se incidió en: -sistematizar razonadamente las pautas para la resolución de problemas y -Fomentar el orden, limpieza y presentación del trabajo escrito. Con el fin de ayudar al alumnado a razonar la forma de resolver los problemas, se elaboraron unas pautas generales, incluidas en los 'protocolos' que acompañan a cada uno de los problemas llevados al aula. Es indudable que de esta forma se aumenta la capacidad de razonamiento a través del lenguaje en Matemáticas..
Resumo:
Injectivity decline, which can be caused by particle retention, generally occurs during water injection or reinjection in oil fields. Several mechanisms, including straining, are responsible for particle retention and pore blocking causing formation damage and injectivity decline. Predicting formation damage and injectivity decline is essential in waterflooding projects. The Classic Model (CM), which incorporates filtration coefficients and formation damage functions, has been widely used to predict injectivity decline. However, various authors have reported significant discrepancies between Classical Model and experimental results, motivating the development of deep bed filtration models considering multiple particle retention mechanisms (Santos & Barros, 2010; SBM). In this dissertation, inverse problem solution was studied and a software for experimental data treatment was developed. Finally, experimental data were fitted using both the CM and SBM. The results showed that, depending on the formation damage function, the predictions for injectivity decline using CM and SBM models can be significantly different
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Neste trabalho foi desenvolvido um método de solução ao problema inverso para modelos sísmicos compostos por camadas homogêneas e isotrópicas separadas por superfícies suaves, que determina as velocidades intervalares em profundidade e calcula a geometria das interfaces. O tempo de trânsito é expresso como uma função de parâmetros referidos a um sistema de coordenadas fixo no raio central, que é determinada numericamente na superfície superior do modelo. Essa função é posteriormente calculada na interface anterior que limita a camada não conhecida, através de um processo que determina a função característica em profundidade. A partir da função avaliada na interface anterior se calculam sua velocidade intervalar e a geometria da superfície posterior onde tem lugar a reflexão do raio. O procedimento se repete de uma forma recursiva nas camadas mais profundas obtendo assim a solução completa do modelo, não precisando em nenhum passo informação diferente à das camadas superiores. O método foi expresso num algoritmo e se desenvolveram programas de computador, os quais foram testados com dados sintéticos de modelos que representam feições estruturais comuns nas seções geológicas, fornecendo as velocidades em profundidade e permitindo a reconstrução das interfaces. Uma análise de sensibilidade sobre os programas mostrou que a determinação da função característica e a estimação das velocidades intervalares e geometria das interfaces são feitos por métodos considerados estáveis. O intervalo empírico de aplicabilidade das correções dinâmicas hiperbólicas foi tomado como uma estimativa da ordem de magnitude do intervalo válido para a aplicação do método.
Resumo:
O presente trabalho consiste na formulação de uma metodologia para interpretação automática de dados de campo magnético. Desta forma, a sua utilização tornará possível a determinação das fronteiras e magnetização de cada corpo. Na base desta metodologia foram utilizadas as características de variações abruptas de magnetização dos corpos. Estas variações laterais abruptas serão representadas por polinômios descontínuos conhecidos como polinômios de Walsh. Neste trabalho, muitos conceitos novos foram desenvolvidos na aplicação dos polinômios de Walsh para resolver problemas de inversão de dados aeromagnéticos. Dentre os novos aspectos considerados, podemos citar. (i) - O desenvolvimento de um algoritmo ótimo para gerar um jôgo dos polinômios "quase-ortogonais" baseados na distribuição de magnetização de Walsh. (ii) - O uso da metodologia damped least squares para estabilizar a solução inversa. (iii) - Uma investigação dos problemas da não-invariância, inerentes quando se usa os polinômios de Walsh. (iv) - Uma investigação da escolha da ordem dos polinômios, tomando-se em conta as limitações de resolução e o comportamento dos autovalores. Utilizando estas características dos corpos magnetizados é possível formular o problema direto, ou seja, a magnetização dos corpos obedece a distribuição de Walsh. É também possível formular o problema inverso, na qual a magnetização geradora do campo observado obedece a série de Walsh. Antes da utilização do método é necessária uma primeira estimativa da localização das fontes magnéticas. Foi escolhida uma metodologia desenvolvida por LOURES (1991), que tem como base a equação homogênea de Euler e cujas exigências necessárias à sua utilização é o conhecimento do campo magnético e suas derivadas. Para testar a metodologia com dados reais foi escolhida uma região localizada na bacia sedimentar do Alto Amazonas. Os dados foram obtidos a partir do levantamento aeromagnético realizado pela PETROBRÁS.
Resumo:
Pós-graduação em Ciência e Tecnologia de Materiais - FC
Resumo:
BTES (borehole thermal energy storage)systems exchange thermal energy by conduction with the surrounding ground through borehole materials. The spatial variability of the geological properties and the space-time variability of hydrogeological conditions affect the real power rate of heat exchangers and, consequently, the amount of energy extracted from / injected into the ground. For this reason, it is not an easy task to identify the underground thermal properties to use when designing. At the current state of technology, Thermal Response Test (TRT) is the in situ test for the characterization of ground thermal properties with the higher degree of accuracy, but it doesn’t fully solve the problem of characterizing the thermal properties of a shallow geothermal reservoir, simply because it characterizes only the neighborhood of the heat exchanger at hand and only for the test duration. Different analytical and numerical models exist for the characterization of shallow geothermal reservoir, but they are still inadequate and not exhaustive: more sophisticated models must be taken into account and a geostatistical approach is needed to tackle natural variability and estimates uncertainty. The approach adopted for reservoir characterization is the “inverse problem”, typical of oil&gas field analysis. Similarly, we create different realizations of thermal properties by direct sequential simulation and we find the best one fitting real production data (fluid temperature along time). The software used to develop heat production simulation is FEFLOW 5.4 (Finite Element subsurface FLOW system). A geostatistical reservoir model has been set up based on literature thermal properties data and spatial variability hypotheses, and a real TRT has been tested. Then we analyzed and used as well two other codes (SA-Geotherm and FV-Geotherm) which are two implementation of the same numerical model of FEFLOW (Al-Khoury model).
Resumo:
Molte applicazioni sono legate a tecniche di rilassometria e risonanza magnetica nucleare (NMR). Tali applicazioni danno luogo a problemi di inversione della trasformata di Laplace discreta che è un problema notoriamente mal posto. UPEN (Uniform Penalty) è un metodo numerico di regolarizzazione utile a risolvere problemi di questo tipo. UPEN riformula l’inversione della trasformata di Laplace come un problema di minimo vincolato in cui la funzione obiettivo contiene il fit di dati e una componente di penalizzazione locale, che varia a seconda della soluzione stessa. Nella moderna spettroscopia NMR si studiano le correlazioni multidimensionali dei parametri di rilassamento longitudinale e trasversale. Per studiare i problemi derivanti dall’analisi di campioni multicomponenti è sorta la necessità di estendere gli algoritmi che implementano la trasformata inversa di Laplace in una dimensione al caso bidimensionale. In questa tesi si propone una possibile estensione dell'algoritmo UPEN dal caso monodimensionale al caso bidimensionale e si fornisce un'analisi numerica di tale estensione su dati simulati e su dati reali.
Resumo:
Il funzionamento del cervello umano, organo responsabile di ogni nostra azione e pensiero, è sempre stato di grande interesse per la ricerca scientifica. Dopo aver compreso lo sviluppo dei potenziali elettrici da parte di nuclei neuronali in risposta a stimoli, si è riusciti a graficare il loro andamento con l'avvento dell'ElettroEncefaloGrafia (EEG). Tale tecnologia è entrata a far parte degli esami di routine per la ricerca di neuropsicologia e di interesse clinico, poiché permette di diagnosticare e discriminare i vari tipi di epilessia, la presenza di traumi cranici e altre patologie del sistema nervoso centrale. Purtroppo presenta svariati difetti: il segnale è affetto da disturbi e richiede un'adeguata elaborazione tramite filtraggio e amplificazione, rimanendo comunque sensibile a disomogeneità dei tessuti biologici e rendendo difficoltoso il riconoscimento delle sorgenti del segnale che si sono attivate durante l'esame (il cosiddetto problema inverso). Negli ultimi decenni la ricerca ha portato allo sviluppo di nuove tecniche d'indagine, di particolare interesse sono la ElettroEncefaloGrafia ad Alta Risoluzione (HREEG) e la MagnetoEncefaloGrafia (MEG). L'HREEG impiega un maggior numero di elettrodi (fino a 256) e l'appoggio di accurati modelli matematici per approssimare la distribuzione di potenziale elettrico sulla cute del soggetto, garantendo una migliore risoluzione spaziale e maggior sicurezza nel riscontro delle sorgenti neuronali. Il progresso nel campo dei superconduttori ha reso possibile lo sviluppo della MEG, che è in grado di registrare i deboli campi magnetici prodotti dai segnali elettrici corticali, dando informazioni immuni dalle disomogeneità dei tessuti e andando ad affiancare l'EEG nella ricerca scientifica. Queste nuove tecnologie hanno aperto nuovi campi di sviluppo, più importante la possibilità di comandare protesi e dispositivi tramite sforzo mentale (Brain Computer Interface). Il futuro lascia ben sperare per ulteriori innovazioni.
Resumo:
El objetivo de este trabajo es investigar la historia de la monstruosidad femenina en la literatura griega antigua para recuperar algunas estructuras arquetípicas de pensamiento que se ocupan de la antigua y moderna conciencia colectiva sobre el problema del mal, su naturaleza, sus razones y también su falta de razones. De este modo yo repasé las "vidas paralelas" de tres famosas mujeres fatales de la mitología clásica que, colocadas en puntos decisivos de árboles genealógicos horribles llenas de 'maldiciones genéticas', son capaces de formar un tríptico bien definido de "medallones" enmarcados por un fil rouge de la monstruosidad ininterrumpida. Paradigmático de la dialéctica ambigua entre hombre-mujer, bien-mal, víctima-verdugo, normalidad-desviación, y de las dinámicas incontrolables entre los crímenes y los castigos, miedos ancestrales y deseo de descubrimiento, demonios buenos y malos, los mitos de Lamia, Circe y Empusa destacan la atracción irracional que, en la cultura griega antigua, tan racionalista, las personificaciones femeninas del mal son imaginadas moviéndose, con el fin de influir en la conducta humana en las principales etapas de la vida
Resumo:
El objetivo de este trabajo es investigar la historia de la monstruosidad femenina en la literatura griega antigua para recuperar algunas estructuras arquetípicas de pensamiento que se ocupan de la antigua y moderna conciencia colectiva sobre el problema del mal, su naturaleza, sus razones y también su falta de razones. De este modo yo repasé las "vidas paralelas" de tres famosas mujeres fatales de la mitología clásica que, colocadas en puntos decisivos de árboles genealógicos horribles llenas de 'maldiciones genéticas', son capaces de formar un tríptico bien definido de "medallones" enmarcados por un fil rouge de la monstruosidad ininterrumpida. Paradigmático de la dialéctica ambigua entre hombre-mujer, bien-mal, víctima-verdugo, normalidad-desviación, y de las dinámicas incontrolables entre los crímenes y los castigos, miedos ancestrales y deseo de descubrimiento, demonios buenos y malos, los mitos de Lamia, Circe y Empusa destacan la atracción irracional que, en la cultura griega antigua, tan racionalista, las personificaciones femeninas del mal son imaginadas moviéndose, con el fin de influir en la conducta humana en las principales etapas de la vida
Resumo:
El objetivo de este trabajo es investigar la historia de la monstruosidad femenina en la literatura griega antigua para recuperar algunas estructuras arquetípicas de pensamiento que se ocupan de la antigua y moderna conciencia colectiva sobre el problema del mal, su naturaleza, sus razones y también su falta de razones. De este modo yo repasé las "vidas paralelas" de tres famosas mujeres fatales de la mitología clásica que, colocadas en puntos decisivos de árboles genealógicos horribles llenas de 'maldiciones genéticas', son capaces de formar un tríptico bien definido de "medallones" enmarcados por un fil rouge de la monstruosidad ininterrumpida. Paradigmático de la dialéctica ambigua entre hombre-mujer, bien-mal, víctima-verdugo, normalidad-desviación, y de las dinámicas incontrolables entre los crímenes y los castigos, miedos ancestrales y deseo de descubrimiento, demonios buenos y malos, los mitos de Lamia, Circe y Empusa destacan la atracción irracional que, en la cultura griega antigua, tan racionalista, las personificaciones femeninas del mal son imaginadas moviéndose, con el fin de influir en la conducta humana en las principales etapas de la vida
Resumo:
Se presenta la posibilidad de aplicación de la teoría de la fiabilidad estructural al cálculo de los márgenes de seguridad en túneles excavados. Tras una breve introducción a los procedimientos existentes para analizar la incertidumbre y de examinar las limitaciones de los coeficientes de seguridad tal como se definen habitualmente, se precisan los estados límites propuestos así como las variables aleatorias y la metodología aplicada. Se presenta también un ejemplo sencillo basado en un caso real y se termina con algunas conclusiones entre las que destaca la posibilidad de utilizar el método para resolver el problema inverso de identificación de propiedades.
Resumo:
El problema inverso de la búsqueda de fuentes MEG consiste en la obtención de la distribución de los dipolos de corriente (fuentes) en el interior de la cabeza de un paciente a partir de las mediciones de campo electromagnético obtenidas en la superficie (magnetoencefalograma, MEG). Para obtener estos datos, en el ámbito científico se utiliza el algoritmo beamforming, comúnmente aceptado, cuyos resultados ofrecen un pequeño margen de error debido a la naturaleza del problema. Esta memoria desarrolla el trabajo realizado para optimizar un algoritmo de búsqueda aleatoria, Solis-Wets, utilizado para investigar la posibilidad de su aplicación en el ámbito científico, en sustitución del anteriormente mencionado, beamforming. También se estudiará la acción de encadenar ambos algoritmos, tomando como datos de entrada del algoritmo Solis-Wets aquellos proporcionados como solución por el algoritmo beamforming con objeto de minimizar el error en el que éste incurre. Esta optimización es necesaria para que la alternativa sea viable debido al tiempo necesario en su ejecución, e incluye el uso de bibliotecas auxiliares, así como la paralelización del código. Para la evaluación del algoritmo se han medido tanto la velocidad de generación de soluciones como el error de la mejor solución tras un número determinado de soluciones generadas. Como variables para esta evaluación se han tomado distintos compiladores, distintas soluciones de partida, precisión de los datos, así como el uso de distintas bibliotecas matemáticas disponibles.