1000 resultados para Método inverso


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La discontinuidad de Mohorovičić, más conocida simplemente como “Moho” constituye la superficie de separación entre los materiales rocosos menos densos de la corteza y los materiales rocosos más densos del manto, suponiendo estas capas de densidad constante del orden de 2.67 y 3.27 g/cm3, y es un contorno básico para cualquier estudio geofísico de la corteza terrestre. Los estudios sísmicos y gravimétricos realizados demuestran que la profundidad del Moho es del orden de 30-40 km por debajo de la Península Ibérica y 5-15 km bajo las zonas marinas. Además las distintas técnicas existentes muestran gran correlación en los resultados. Haciendo la suposición de que el campo de gravedad de la Península Ibérica (como le ocurre al 90% de la Tierra) está isostáticamente compensado por la variable profundidad del Moho, suponiendo un contraste de densidad constante entre la corteza y el manto y siguiendo el modelo isostático de Vening Meinesz (1931), se formula el problema isostático inverso para obtener tal profundidad a partir de la anomalía Bouguer de la gravedad calculada gracias a la gravedad observada en la superficie terrestre. La particularidad de este modelo es la compensación isostática regional de la que parte la teoría, que se asemeja a la realidad en mayor medida que otros modelos existentes, como el de Airy-Heiskanen, que ha sido históricamente el más utilizado en trabajos semejantes. Además, su solución está relacionada con el campo de gravedad global para toda la Tierra, por lo que los actuales modelos gravitacionales, la mayoría derivados de observaciones satelitales, deberían ser importantes fuentes de información para nuestra solución. El objetivo de esta tesis es el estudio con detalle de este método, desarrollado por Helmut Moritz en 1990, que desde entonces ha tenido poca evolución y seguidores y que nunca se ha puesto en práctica en la Península Ibérica. Después de tratar su teoría, desarrollo y aspectos computacionales, se está en posición de obtener un modelo digital del Moho para esta zona a fin de poder utilizarse para el estudio de la distribución de masas bajo la superficie terrestre. A partir de los datos del Moho obtenidos por métodos alternativos se hará una comparación. La precisión de ninguno de estos métodos es extremadamente alta (+5 km aproximadamente). No obstante, en aquellas zonas donde exista una discrepancia de datos significaría un área descompensada, con posibles movimientos tectónicos o alto grado de riesgo sísmico, lo que le da a este estudio un valor añadido. ABSTRACT The Mohorovičić discontinuity, simply known as “Moho” constitutes the division between the rocky and less thick materials of the mantle and the heavier ones in the crust, assuming densities of the orders of 2.67 y 3.27 g/cm3 respectively. It is also a basic contour for every geophysical kind of studies about the terrestrial crust. The seismic and previous gravimetric observations done in the study area show that the Moho depth is of the order of 30-40 km beneath the ground and 5-15 km under the ocean basin. Besides, the different techniques show a good correlation in their results. Assuming that the Iberian Peninsula gravity field (as it happens for the 90% of the Earth) is isostatically compensated according to the variable Moho depth, supposing a constant density contrast between crust and mantle, and following the isostatic Vening Meinesz model (1931), the inverse isostatic problem can be formulated from Bouguer gravity anomaly data obtained thanks to the observed gravity at the surface of the Earth. The main difference between this model and other existing ones, such as Airy- Heiskanen’s (pure local compensation and mostly used in these kinds of works) is the approaching to a regional isostatic compensation, much more in accordance with reality. Besides, its solution is related to the global gravity field, and the current gravitational models -mostly satellite derived- should be important data sources in such solution. The aim of this thesis is to study with detail this method, developed by Helmut Moritz in 1990, which hardly ever has it put into practice. Moreover, it has never been used in Iberia. After studying its theory, development and computational aspects, we are able to get a Digital Moho Model of the Iberian Peninsula, in order to study the masses distribution beneath the Earth’s surface. With the depth Moho information obtained from alternative methods, a comparison will be done. Both methods give results with the same order of accuracy, which is not quite high (+ 5 km approximately). Nevertheless, the areas in which a higher difference is observed would mean a disturbance of the compensation, which could show an unbalanced area with possible tectonic movements or potential seismic risk. It will give us an important additive value, which could be used in, at first, non related fields, such as density discrepancies or natural disasters contingency plans.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os métodos de ondas superficiais com ênfase nas ondas Rayleigh foram utilizados como o núcleo desse trabalho de Doutorado. Inicialmente, as ondas Rayleigh foram modeladas permitindo o estudo de sensibilidade de suas curvas de dispersão sob diferentes configurações de parâmetros físicos representando diversos modelos de camadas, em que pôde ser observado parâmetros com maior e menor sensibilidade e também alguns efeitos provocados por baixas razões de Poisson. Além disso, na fase de inversão dos dados a modelagem das ondas Rayleigh foi utilizada para a construção da função objeto, que agregada ao método de mínimos quadrados, a partir do método de Levenberg-Marquardt, permitiu a implementação de um algoritmo de busca local responsável pela inversão de dados das ondas superficiais. Por se tratar de um procedimento de busca local, o algoritmo de inversão foi complementado por uma etapa de pré-inversão com a geração de um modelo inicial para que o procedimento de inversão fosse mais rápido e eficiente. Visando uma eficiência ainda maior do procedimento de inversão, principalmente em modelos de camadas com inversão de velocidades, foi implementado um algoritmo de pós-inversão baseado em um procedimento de tentativa e erro minimizando os valores relativos da raiz quadrada do erro quadrático médio (REQMr) da inversão dos dados. Mais de 50 modelos de camadas foram utilizados para testar a modelagem, a pré-inversão, inversão e pós-inversão dos dados permitindo o ajuste preciso de parâmetros matemáticos e físicos presentes nos diversos scripts implementados em Matlab. Antes de inverter os dados adquiridos em campo, os mesmos precisaram ser tratados na etapa de processamento de dados, cujo objetivo principal é a extração da curva de dispersão originada devido às ondas superficiais. Para isso, foram implementadas, também em Matlab, três metodologias de processamento com abordagens matemáticas distintas. Essas metodologias foram testadas e avaliadas com dados sintéticos e reais em que foi possível constatar as virtudes e deficiências de cada metodologia estudada, bem como as limitações provocadas pela discretização dos dados de campo. Por último, as etapas de processamento, pré-inversão, inversão e pós-inversão dos dados foram unificadas para formar um programa de tratamento de dados de ondas superficiais (Rayleigh). Ele foi utilizado em dados reais originados pelo estudo de um problema geológico na Bacia de Taubaté em que foi possível mapear os contatos geológicos ao longo dos pontos de aquisição sísmica e compará-los a um modelo inicial existente baseado em observações geomorfológicas da área de estudos, mapa geológico da região e informações geológicas globais e locais dos movimentos tectônicos na região. As informações geofísicas associadas às geológicas permitiram a geração de um perfil analítico da região de estudos com duas interpretações geológicas confirmando a suspeita de neotectônica na região em que os contatos geológicos entre os depósitos Terciários e Quaternários foram identificados e se encaixaram no modelo inicial de hemi-graben com mergulho para Sudeste.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O desenvolvimento de algoritmos computacionais para a obtenção de distribuições de tamanho de partícula em dispersões e que utilizam dados espectroscópicos em tempo real e in-line a partir de sensores permitirá uma variedade de aplicações, como o monitoramento de propriedades em fluidos de corte industriais, acompanhamento de processos de polimerização, tratamento de efluentes e sensoriamento atmosférico. O presente estudo tem como objetivo a implementação e comparação de técnicas para resolução de problemas de inversão, desenvolvendo algoritmos que forneçam distribuição de tamanho de partículas em dispersões a partir de dados de espectroscopia UV-Vis-Nir (Ultravioleta, Visível e Infravermelho próximo). Foram implementadas quatro técnicas, sendo uma delas um método alternativo sem a presença de etapas de inversão. Os métodos que utilizaram alguma técnica de inversão evidenciaram a dificuldade em se obter distribuições de tamanho de gotas (DTG) de boa qualidade, enquanto o método alternativo foi aquele que se mostrou mais eficiente e confiável. Este estudo é parte de um programa cooperativo entre a Universidade de São Paulo e a Universidade de Bremen chamado programa BRAGECRIM (Brazilian German Cooperative Research Initiative in Manufacturing) e é financiado pela FAPESP, CAPES, FINEP e CNPq (Brasil) e DFG (Alemanha).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Civil e Ambiental, 2015.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Two hundred and six patients with severe head injury (Glasgow Coma Scale of 8 points or less after nonsurgical resuscitation on admission), managed at Intensive Care Unit-Hospital das Clínicas - Universidade Estadual de Campinas were prospectively analysed. All patients were assessed by CT scan and 72 required neurosurgical intervention. All patients were continuously monitored to evaluate intracranial pressure (ICP) levels by a subarachnoid device (11 with subarachnoid metallic bolts and 195 with subarachnoid polyvinyl catheters). The ICP levels were continuously observed in the bedside pressure monitor display and their end-hour values were recorded in a standard chart. The patients were managed according to a standard protocol guided by the ICP levels. There were no intracranial haemorrhagic complications or hematomas due the monitoring method. Sixty six patients were punctured by lateral C1-C2 technique to assess infectious complications and 2 had positive cerebrospinal fluid samples for Acinetobacter sp. The final results measured at hospital discharge showed 75 deaths (36,40%) and 131 (63,60%) survivors. ICP levels had significantly influenced the final results (p<0,001). The subarachnoid method to continuously assess the ICP levels was considered aplicable, safe, simple, low cost and useful to advise the management of the patients. The ICP record methodology was practical and useful. Despite the current technical advances the subarachnoid method was considered viable to assess the ICP levels in severe head injury.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The purpose of this study is to introduce a method to evaluate visual functions in infants in the first three months of life. An adaptation of the Guide for the Assessment of Visual Ability in Infants (Gagliardo, 1997) was used. The instrument was a ring with string. It was implemented a pilot study with 33 infants, selected according to the following criteria: neonates well enough to go home within two days of birth; 1 to 3 months of chronological age; monthly evaluation with no absence; subjects living in Campinas/SP metropolitan area. In the first month we observed: visual fixation (93,9%); eye contact (90,9%); horizontal tracking (72,7%); inspects surroundings (97,0%). In the third month, we observed: inspects own hands (42,4%) and increased movements of arms (36,4%). This method allowed the evaluation of visual functions in infants, according to the chronological age. Alterations in this function will facilitate immediate referral to medical services for diagnoses.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The ONIOM method was used to calculate the proton affinities (PA) of n-alkylamines (CnH2n+1NH2, n = 3 to 6, 8, 10, 12, 14, 16 and 18). The calculations were carried out at several levels (HF, MP2, B3LYP, QCISD(T), ...) using Pople basis sets and at the QCISD(T) level using basis sets developed by the generator coordinate method (GCM) and adapted to effective core potentials. PAs were also obtained through the GCM and high level methods, like ONIOM[QCISD(T)/6-31+G(2df,p):MP2/6-31G+G(d,p))//ONIOM[MP2/6-31+G(d,p):HF/6-31G]. The average error using the GCM, with respect to experimental data, was 3.4 kJ mol-1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this work a simple and sensitive procedure to extract organic mercury from water and sediment samples, using methylene chloride in acidic media followed by CVAFS quantification has been developed. The method was evaluated for possible interferents, using different inorganic mercury species and humic acid, no effects being observed. The detection limit for organic mercury was 160 pg and 396 pg for water and sediment samples respectively. The accuracy of the method was evaluated using a certified reference material of methylmercury (BCR-580, estuarine sediment). Recovery tests using methylmercury as surrogate spiked with 1.0 up to 30.0 ng L-1 ranged from 90 up to 109% for water samples, whereas for sediments, recoveries ranged from 57 up to 97%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Alginate microparticles were prepared by an emulsion method aiming oral controlled release of antigens to fish. The effects of emulsification temperature and impeller type on particle morphology, average diameter, and size distribution were evaluated. Microparticles contaning formalin-killed Flavobacterium columnare cells (a model antigen) were prepared and characterized regarding bacterial release and particle stability when exposed to Nile tilapia (Oreochromis niloticus) typical gastrointestinal conditions. This methodology allowed the production of microparticles containing up to 14.3 g/L of bacterin, stable at a pH range from 2.0 to 9.0 for 12 h and smaller than 35 μm.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A method to quantify lycopene and β-carotene in freeze dried tomato pulp by high performance liquid chromatography (HLPC) was validated according to the criteria of selectivity, sensitivity, precision and accuracy, and uncertainty estimation of measurement was determined with data obtained in the validation. The validated method presented is selective in terms of analysis, and it had a good precision and accuracy. Detection limit for lycopene and β-carotene was 4.2 and 0.23 mg 100 g-1, respectively. The estimation of expanded uncertainty (K = 2) for lycopene was 104 ± 21 mg 100 g-1 and for β-carotene was 6.4 ± 1.5 mg 100 g-1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A new practical experiment involving silver and gold nanoparticle syntheses was introduced in an inorganic chemistry laboratory course for undergraduate students at the Institute of Chemistry, UNICAMP. The nanoparticles were synthesized by the reduction of silver nitrate and tetrachloroauric acid with sodium borohydride and sodium citrate in an aqueous medium. Stabilities of the suspensions were tested using several different reactants including sodium chloride, polyvinylpyrrolidone, polyvinyl alcohol and cistamine. Changes in optical properties were observed by electronic spectra and also by transmission electronic microscopy, which also yielded data for estimating particle size.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A simple analytical method for extraction and quantification of lutein colorant added to yogurt was developed and validated. The method allowed complete extraction of carotenoids using tetrahydrofuran in vortex, followed by centrifugation, partition to diethyl ether/petroleum ether, and drying. The carotenoids dissolved in ethanol were quantified by UV-Vis spectrophotometry. This method showed linearity in the range tested (1.41-13.42 µg g-1), limits of detection and quantification of 0.42 and 1.28 µg g-1, respectively, low relative standard deviation (3.4%) and recovery ranging from 95 to 103%. The method proved reliable for quantification of lutein added to yogurt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Universidade Estadual de Campinas . Faculdade de Educação Física

Relevância:

20.00% 20.00%

Publicador:

Resumo:

INTRODUÇÃO: a espessura das tábuas ósseas que recobrem os dentes por vestibular e lingual constitui um dos fatores limitantes da movimentação dentária. O avanço tecnológico em Imaginologia permitiu avaliar detalhadamente essas regiões anatômicas por meio da utilização da tomografia computadorizada de feixe cônico (TCFC). OBJETIVO: descrever e padronizar, pormenorizadamente, um método para mensuração das tábuas ósseas vestibular e lingual dos maxilares nas imagens de tomografia computadorizada de feixe cônico. METODOLOGIA: a padronização digital da posição da imagem da face deve constituir o primeiro passo antes da seleção dos cortes de TCFC. Dois cortes axiais de cada maxilar foram empregados para a mensuração da espessura do osso alveolar vestibular e lingual. Utilizou-se como referência a junção cemento-esmalte dos primeiros molares permanentes, tanto na arcada superior quanto na inferior. RESULTADOS: cortes axiais paralelos ao plano palatino foram indicados para avaliação quantitativa do osso alveolar na maxila. Na arcada inferior, os cortes axiais devem ser paralelos ao plano oclusal funcional. CONCLUSÃO: o método descrito apresenta reprodutibilidade para utilização em pesquisas, assim como para a avaliação clínica das repercussões periodontais da movimentação dentária, ao permitir a comparação de imagens pré e pós-tratamento.