1000 resultados para Métodos de combinação
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
Pós-graduação em Ciência e Tecnologia de Materiais - FC
Resumo:
A inversão de momentos de fonte gravimétrica tridimensional é analisada em duas situações. Na primeira se admite conhecer apenas a anomalia. Na segunda se admite conhecer, além da anomalia, informação a priori sobre o corpo anômalo. Sem usar informação a priori, mostramos que é possível determinar univocamente todo momento, ou combinação linear de momentos, cujo núcleo polinomial seja função apenas das coordenadas Cartesianas que definem o plano de medida e que tenha Laplaciano nulo. Além disso, mostramos que nenhum momento cujo núcleo polinomial tenha Laplaciano não nulo pode ser determinado. Por outro lado, informação a priori é implicitamente introduzida se o método de inversão de momentos se baseia na aproximação da anomalia pela série truncada obtida de sua expansão em multipolos. Dado um centro de expansão qualquer, o truncamento da série impõe uma condição de regularização sobre as superfícies equipotenciais do corpo anômalo, que permite estimar univocamente os momentos e combinações lineares de momentos que são os coeficientes das funções-bases da expansão em multipolos. Assim, uma distribuição de massa equivalente à real é postulada, sendo o critério de equivalência especificado pela condição de ajuste entre os campos observado e calculado com a série truncada em momentos de uma ordem máxima pré-estabelecida. Os momentos da distribuição equivalente de massa foram identificados como a solução estacionária de um sistema de equações diferenciais lineares de 1a. ordem, para a qual se asseguram unicidade e estabilidade assintótica. Para a série retendo momentos até 2a. ordem, é implicitamente admitido que o corpo anômalo seja convexo e tenha volume finito, que ele esteja suficientemente distante do plano de medida e que a sua distribuição espacial de massa apresente três planos ortogonais de simetria. O método de inversão de momentos baseado na série truncada (IMT) é adaptado para o caso magnético. Para este caso, mostramos que, para assegurar unicidade e estabilidade assintótica, é suficiente pressupor, além da condição de regularização, a condição de que a magnetização total tenha direção e sentido constantes, embora desconhecidos. O método IMT baseado na série de 2a. ordem (IMT2) é aplicado a anomalias gravimétricas e magnéticas tridimensionais sintéticas. Mostramos que se a fonte satisfaz as condições exigidas, boas estimativas da sua massa ou vetor momento de dipolo anômalo total, da posição de seu centro de massa ou de momento de dipolo e das direções de seus três eixos principais são obtidas de maneira estável. O método IMT2 pode falhar parcialmente quando a fonte está próxima do plano de medida ou quando a anomalia tem efeitos localizados e fortes de um corpo pequeno e raso e se tenta estimar os parâmetros de um corpo grande e profundo. Definimos por falha parcial a situação em que algumas das estimativas obtidas podem não ser boas aproximações dos valores verdadeiros. Nas duas situações acima descritas, a profundidade do centro da fonte (maior) e as direções de seus eixos principais podem ser erroneamente estimadas, embora que a massa ou vetor momento de dipolo anômalo total e a projeção do centro desta fonte no plano de medida ainda sejam bem estimados. Se a direção de magnetização total não for constante, o método IMT2 pode fornecer estimativas erradas das direções dos eixos principais (mesmo se a fonte estiver distante do plano de medida), embora que os demais parâmetros sejam bem estimados. O método IMT2 pode falhar completamente se a fonte não tiver volume finito. Definimos por falha completa a situação em que qualquer estimativa obtida pode não ser boa aproximação do valor verdadeiro. O método IMT2 é aplicado a dados reais gravimétricos e magnéticos. No caso gravimétrico, utilizamos uma anomalia situada no estado da Bahia, que se supõe ser causada por um batólito de granito. Com base nos resultados, sugerimos que as massas graníticas geradoras desta anomalia tenham sido estiradas na direção NNW e adelgaçadas na direção vertical durante o evento compressivo que causou a orogênese do Sistema de Dobramentos do Espinhaço. Além disso, estimamos que a profundidade do centro de massa da fonte geradora é cerca de 20 km. No caso magnético, utilizamos a anomalia de um monte submarino situado no Golfo da Guiné. Com base nos resultados, estimamos que o paleopolo magnético do monte submarino tem latitude 50°48'S e longitude 74°54'E e sugerimos que não exista contraste de magnetização expressivo abaixo da base do monte submarino.
Resumo:
A ferramenta de indução EM é utilizada na perfilagem de poço de prospecção com a finalidade de determinar a concentração de óleo na formação geológica. Formações com camadas que são relativamente de grande espessura já foram bem tratadas, entretanto zonas com camadas finas intercaladas com argila e areia com bom potencial de hidrocarbonetos precisam ser investigadas. Por isso, é necessário melhorar a resolução da sonda de indução para delimitar camadas finas com maior precisão. Teoricamente, se uma sonda de indução apresentar o feixe do campo magnético direcionado transversalmente ao eixo do poço, ela poderá ter um bom potencial para melhorar a resolução vertical das sondagens. Neste trabalho estudamos a geração do campo magnético direcional na forma de um feixe fino através de diferentes combinações de duas bobinas transmissoras (dipolos magnéticos) para determinar um arranjo que apresente uma melhor focalização na perfilagem de indução. Duas configurações com dois transmissores EM apresentam uma região em que só há contribuição da componente radial para a indução magnética: dois dipolos magnéticos paralelos transversais ao eixo do poço e dois dipolos magnéticos anticoaxiais ao eixo do poço. Para estas duas configurações foram analisados os possíveis espaçamentos entre os dois dipolos magnéticos transmissores, verificando-se que quanto mais próximos os dois dipolos magnéticos transmissores mais agrupadas ficam as linhas de fluxo magnético numa direção transversal ao eixo do poço. Conseqüentemente é gerado um feixe fino e direcional, concentrando energia em uma porção de volume estreita a partir dos transmissores, tendo um bom potencial para melhorar a resolução vertical da sonda de indução EM de poço.
Resumo:
Pós-graduação em Ciências Cartográficas - FCT
Resumo:
Pós-graduação em Engenharia de Produção - FEG
Resumo:
Neste trabalho são feitas comparações entre os principais sinais horizontais de trânsito (Parada Obrigatória, Faixa de Pedestre e Lombada) padronizados pelo Código de Trânsito Brasileiro (CTB), com modelos alternativos que sofreram variações na forma e/ou cor, alguns deles já usados em algumas cidades brasileiras, com o objetivo de identificar se essas alterações melhoram ou não a percepção do sinal (impacto visual). Para isso são utilizados dois métodos da Psicofísica. Numa primeira etapa a análise é feita utilizando o Método de Comparação aos Pares, para um grupo de quatro estímulos para cada sinal estudado. Em seguida, aplicando o Método de Estimativa das Categorias, foi avaliado o impacto visual do sinal horizontal de Parada Obrigatória quanto à presença ou ausência de orla externa. Por fim, também pelo Método de Comparação aos Pares, foi avaliado o impacto visual causado pelo uso conjugado de sinais horizontais em cruzamentos não semaforizados. Foram estudadas as combinações entre os sinais de parada obrigatória, faixa de pedestres e faixa de retenção. Os resultados obtidos permitem inferir as seguintes conclusões: as alterações na forma e cor propostas para os sinais de parada obrigatória e faixa de pedestres causam maior impacto visual quando comparadas ao modelo padronizado pelo CTB mas, no caso das lombadas, a sinalização padrão mostrou-se ser mais perceptível; quanto a presença ou não da orla externa no sinal de parada obrigatória, esta demonstrou ser positiva; o uso conjugado dos sinais de parada obrigatória, faixa de pedestres e faixa de retenção é a combinação que mais desperta a atenção dos usuários.
Resumo:
A utilização de métodos de formulação de misturas betuminosas tem como objetivo determinar a combinação de agregados e betume numa mistura, de tal modo que se obtenha um material de pavimentação tão económico quanto possível, fácil de fabricar e colocar, e que suporte os efeitos das cargas e do clima ao longo do seu ciclo de vida. As misturas colocadas nas camadas de pavimentos podem diferir no tipo de material agregado e na sua granulometria, no tipo e na quantidade de ligante, na utilização de aditivos ou agentes que modificam o betume, e na sua composição volumétrica. Os métodos empíricos de formulação de misturas betuminosas, como o método de Marshall, não permitem formular com a fiabilidade necessária misturas betuminosas com o desempenho mecânico adequado para resistir aos mecanismos de degradação a que vão ficar sujeitas nos pavimentos. Uma das alternativas ao método de Marshall é a metodologia de formulação volumétrica SUPERPAVE, desenvolvida no programa Strategic Highway Research Program(SHRP). Nesta metodologia o procedimento de seleção da percentagem ótima em betume é realizado com base nas propriedades volumétricas de provetes compactados com o compactador giratório. A percentagem ótima em betume depende da energia de compactação utilizada, sendo esta fornecida pelo número de giros a que o provete foi submetido. O equipamento geralmente usado nos ensaios é a prensa giratória de corte (PGC) que permite medir a compacidade e estimar com uma precisão suficiente a porosidade que será obtida insitu. Nestes métodos a seleção da curva granulométrica e da percentagem ótima de betume a usar é feita pela verificação da maior ou menor correspondência entre as composiçõestestadas e certos requisitos de compactabilidade pré-definidos, entendendo-se estes como uma medida da aptidão da mistura para apresentar bom comportamento no seu ciclo de vida. A prática portuguesa é a de utilizar o método de Marshall para formular misturas betuminosas convencionais e até algumas misturas não convencionais. Torna-se, assim, útil comparar os resultados de formulações obtidas por duas vias diferentes, tendo em conta que a utilização da prensa giratória de corte tem vindo a ser progressivamente integrada em várias metodologias de formulação utilizadas internacionalmente. Crê-se que os métodos baseados em PGC, mantêm alguma simplicidade de procedimentos, ao mesmo tempo que permitem amentar o nível de confiança nas composições a que se chega, no que diz respeito ao seu desempenho no seu ciclo de vida.
Resumo:
We review here the chemistry of reactive oxygen and nitrogen species, their biological sources and targets; particularly, biomolecules implicated in the redox balance of the human blood, and appraise the analytical methods available for their detection and quantification. Those biomolecules are represented by the enzymatic antioxidant defense machinery, whereas coadjutant reducing protection is provided by several low molecular weight molecules. Biomolecules can be injured by RONS yielding a large repertoire of oxidized products, some of which can be taken as biomarkers of oxidative damage. Their reliable determination is of utmost interest for their potentiality in diagnosis, prevention and treatment of maladies.
Resumo:
In this work, the artificial neural networks (ANN) and partial least squares (PLS) regression were applied to UV spectral data for quantitative determination of thiamin hydrochloride (VB1), riboflavin phosphate (VB2), pyridoxine hydrochloride (VB6) and nicotinamide (VPP) in pharmaceutical samples. For calibration purposes, commercial samples in 0.2 mol L-1 acetate buffer (pH 4.0) were employed as standards. The concentration ranges used in the calibration step were: 0.1 - 7.5 mg L-1 for VB1, 0.1 - 3.0 mg L-1 for VB2, 0.1 - 3.0 mg L-1 for VB6 and 0.4 - 30.0 mg L-1 for VPP. From the results it is possible to verify that both methods can be successfully applied for these determinations. The similar error values were obtained by using neural network or PLS methods. The proposed methodology is simple, rapid and can be easily used in quality control laboratories.
Resumo:
In this review recent methods developed and applied to solve criminal occurences related to documentoscopy, ballistic and drugs of abuse are discussed. In documentoscopy, aging of ink writings, the sequence of line crossings and counterfeiting of documents are aspects to be solved with reproducible, fast and non-destructive methods. In ballistic, the industries are currently producing ''lead-free'' or ''nontoxic'' handgun ammunitions, so new methods of gunshot residues characterization are being presented. For drugs analysis, easy ambient sonic-spray ionization mass spectrometry (EASI-MS) is shown to provide a relatively simple and selective screening tool to distinguish m-CPP and amphetamines (MDMA) tablets, cocaine and LSD.
Resumo:
This paper presents two techniques to evaluate soil mechanical resistance to penetration as an auxiliary method to help in a decision-making in subsoiling operations. The decision is based on the volume of soil mobilized as a function of the considered critical soil resistance to penetration in each case. The first method, probabilistic, uses statistical techniques to define the volume of soil to be mobilized. The other method, deterministic, determines the percentage of soil to be mobilized and its spatial distribution. Both cases plot the percentage curves of experimental data related to the soil mechanical resistance to penetration equal or larger to the established critical level and the volume of soil to be mobilized as a function of critical level. The deterministic method plots showed the spatial distribution of the data with resistance to penetration equal or large than the critical level. The comparison between mobilized soil curves as a function of critical level using both methods showed that they can be considered equivalent. The deterministic method has the advantage of showing the spatial distribution of the critical points.