1000 resultados para Método Taylor
Resumo:
Introdução – A estimativa da função renal relativa (FRR) através de cintigrafia renal (CR) com ácido dimercaptossuccínico marcado com tecnécio-99 metaestável (99mTc-DMSA) pode ser influenciada pela profundidade renal (PR), atendendo ao efeito de atenuação por parte dos tecidos moles que envolvem os rins. Dado que raramente é conhecida esta mesma PR, diferentes métodos de correção de atenuação (CA) foram desenvolvidos, nomeadamente os que utilizam fórmulas empíricas, como os de Raynaud, de Taylor ou de Tonnesen, ou recorrendo à aplicação direta da média geométrica (MG). Objetivos – Identificar a influência dos diferentes métodos de CA na quantificação da função renal relativa através da CR com 99mTc-DMSA e avaliar a respetiva variabilidade dos resultados de PR. Metodologia – Trinta e um pacientes com indicação para realização de CR com 99mTc-DMSA foram submetidos ao mesmo protocolo de aquisição. O processamento foi efetuado por dois operadores independentes, três vezes por exame, variando para o mesmo processamento o método de determinação da FRR: Raynaud, Taylor, Tonnesen, MG ou sem correção de atenuação (SCA). Aplicou-se o teste de Friedman para o estudo da influência dos diferentes métodos de CA e a correlação de Pearson para a associação e significância dos valores de PR com as variáveis idade, peso e altura. Resultados – Da aplicação do teste de Friedman verificaram-se diferenças estatisticamente significativas entre os vários métodos (p=0,000), excetuando as comparações SCA/Raynaud, Tonnesen/MG e Taylor/MG (p=1,000) para ambos os rins. A correlação de Pearson demonstra que a variável peso apresenta uma correlação forte positiva com todos os métodos de cálculo da PR. Conclusões – O método de Taylor, entre os três métodos de cálculo de PR, é o que apresenta valores de FRR mais próximos da MG. A escolha do método de CA influencia significativamente os parâmetros quantitativos de FRR.
Resumo:
A sustentabilidade da agricultura irrigada depende primariamente do manejo eficiente da irrigação, de modo a aumentar a produtividade primária de uma cultura em determinada localidade. A eficiência no uso de água pode ser melhorada pelo próprio esquema de irrigação adotado, sendo essencialmente governado pelas condições climáticas. O planejamento da irrigação e a tomada de decisão são funções do conhecimento da demanda evaporativa da atmosfera, sendo expressa pela demanda potencial (ETo). Em geral, quase todos os métodos de estimativa de ETo reportados na literatura referem-se a valores diários, incluindo-se nessa situação as perdas noturnas de evaporação, as quais serão expressivas apenas em alguns dias após a chuva ou irrigação. Desenvolveu-se, no presente estudo, método corrigido para estimar ETo, baseado no balanço de energia local, a partir de dados meteorológicos monitorados em postos de observação de superfície durante o período de luz. Para validação do método de Priestley-Taylor ajustado às condições locais, foram utilizados dados observados em estação meteorológica automática instalada em Piracicaba - SP, bem como medidas lisimétricas coletadas na Fazenda Areião da área experimental da ESALQ/USP. Estudos de regressão revelaram que o método proposto apresentou excelentes resultados quando comparado com o método de Penman-Monteith e com medidas realizadas em lisímetros de pesagem com célula de carga, dados os elevados valores de coeficiente de determinação obtidos, podendo ser recomendado, portanto, em estudos de avaliação de consumo de água das culturas em diversas localidades.
Resumo:
OBJETIVO: Apresentar uma aplicação da regressão logística para estimar razões de prevalência ou risco relativo, e o uso do método delta para a estimativa de intervalos de confiança. MÉTODOS: Utilizou-se o método delta, visto que esta técnica é adequada para estimar variâncias de funções não lineares de variáveis aleatórias, do tipo razão de proporções. O método baseia-se na expansão da função em série de Taylor, provendo uma aproximação para o cálculo das variâncias. Para estimar as razões de proporções e as respectivas variâncias, que permitem a estimação dos intervalos de confiança, desenvolveu-se programa utilizando-se o módulo matricial do SAS. A aplicação prática do modelo proposto é feita utilizando-se dados de um estudo transversal com uma amostra de 611 mulheres, para testar a hipótese de que a falta de compartilhamento do trabalho doméstico associa-se com altos escores de sintomas psicológicos medidos através de um questionário validado. As razões de prevalência calculadas através da regressão logística, e os intervalos de confiança estimados pelo método delta foram comparadas com os resultados obtidos pela técnica de Mantel-Haenszel. RESULTADOS: As estimativas pontuais das razões de prevalência brutas, cruas ou ajustadas, obtidas através da regressão logística, foram semelhantes às encontradas na análise tabular. Também os limites dos intervalos de confianças para as razões de prevalência através do método delta foram praticamente iguais em relação aos encontrados através da técnica de Mantel-Haenszel. CONCLUSÕES: Os resultados apóiam o uso do método delta para estimar intervalos de confiança para razões de proporção. Esse método deve ser visto como uma alternativa para situações em que o efeito em estudo (variável dependente) não é raro, situação onde a "odds ratio" se afasta das medidas epidemiológicas caracterizadas como razão de proporções.
Resumo:
O século XX, sobretudo na segunda metade, trouxe para os sistemas de informação empresariais (estes são o suporte de múltiplos modelos ligados à planificação, ao controlo e à tomada de decisões em geral) alterações espectaculares, cujo difícil domínio é o motor de novas propostas e achegas multidisciplinares. Como parte essencial dos referidos sistemas, a Contabilidade de Custos tem perseguido determinar valores unitários de bens ou serviços, de funções ou outros portadores de custos, com diferentes propósitos segundo objectivos, épocas e áreas geográficas concretas. Durante os últimos anos do século passado e no primeiro quartel deste, os cálculos ligaram-se essencialmente ao produto como forma de actuar sobre a eficiência laboral. Os engenheiros industriais (em empresas multinacionais americanas), preocupados em conseguir uma maior racionalidade na utilização dos recursos, estudaram profundamente a normalização e standardização dos materiais e equipamentos, o preestabelecimento de métodos e a medida dos tempos de trabalho. A sua investigação estendeu-se também à forma de organização mais adequada para o desenvolvimento da actividade empresarial; de tal forma que, sob a “batuta” de homens como F. W. Taylor (e o seu método de trabalho para definir tarefas e ferramentas mais adequadas a cada actividade), E. Mayo (e a sua preocupação pelas condições de trabalho em equipa) ou H. Fayol (e a sua procura sistemática das características que devem contribuir para a administração eficiente das organizações), foram-se confirmando os conteúdos actuais dos conceitos de disciplina e ordem, liderança e hierarquia, iniciativa e espírito de superação, etc; assim como novas formas de entender, organizar e realizar o trabalho, que configurarão relações laborais diferentes das herdadas da sociedade pré-industrial. Corolário de tudo foram a especialização e a departamentalização da empresa, bem como o progressivo aparecimento de uma estrutura funcional, com competências pessoais marcadas pela hierarquia. Os engenheiros, com o objectivo de racionalizarem ao máximo as tarefas produtivas, criaram as bases para o desenvolvimento do custo “standard” (padrão) e reuniram o seu estudo com os problemas da direcção geral do negócio: os padrões técnicos serão referência obrigatória para a remuneração do pessoal e a programação de existências e compras, assim como para determinar as actividades dos centros (base do cálculo dos orçamentos); e ainda se revelaram um óptimo instrumento de controlo. Acompanhando este movimento, o cálculo do custo industrial centrar-se-à nos produtos (como portadores finais dos diferentes consumos necessários para a sua obtenção) sobre a base dos padrões técnicos definidos para eles. Não obstante, na primeira metade do nosso século, e sob a pressão de uma procura crescente de informação financeira, iniciou-se a passagem da gestão de custos à contabilidade de custos: os textos de contabilidade dos anos 20 propõem o cálculo do custo de produção com uma orientação clara - valorizar as existências para a informação financeira (Balanço e Resultados no fim do exercício). Só depois da 2ª Guerra Mundial se começa a falar de gestão e, por consequência, de custos para a planificação, controlo e tomada de decisões (Johnson e Kaplan, 1987). Impõe-se uma reflexão sobre os diferentes significados que o custo tem tido ao longo do nosso século (ligando esses significados às circunstâncias que provocaram cada elaboração) para a sua construção futura.
Resumo:
As diversas técnicas de interpolação espacial adotadas oferecem desempenhos diferentes, de acordo com as características dos dados iniciais, e é muito comum encontrar avaliadores contando somente com R² (coeficiente de determinação múltiplo) e erro residual. Neste trabalho, objetivou-se aplicar o Diagrama de Taylor para analisar 15 métodos diferentes de interpolação espacial, em área com cultivo comercial de eucalipto, para comparação e escolha do melhor método de interpolação de um conjunto de valores da fração granulométrica do solo (argila), na profundidade de 0-0,20 m do solo. De acordo com os resultados, considera-se muito satisfatória a ferramenta do Diagrama de Taylor, pois, além de definir graficamente os melhores métodos de interpolação, essa ferramenta permite fazer escolhas entre eles, dentro de um conjunto menor e mais definido de informações; logo, optou-se pelo método Splines em detrimento da krigagem modelo linear. As estatísticas desses dois métodos estão muito próximas, com pequenas variações, estando o desvio-padrão do Splines mais próximo dos dados observados; logo, é o melhor método de interpolação para argila, na profundidade de 0-0,20 m do solo.
Resumo:
Tesis (Maestro en ciencias de la ingeniería eléctrica con especialidad en potencia) U.A.N.L. Facultad de Ingeniería Mecánica y Eléctrica.
Resumo:
o presente trabalho tem por objetivo desenvolver um código computacional destinado à simulaçáo numérica tridimensional e de escoamentos compressíveis hipersônicos em especial para analisar o processo de reentrada de veículos espaciais na atmosfera terrestre. Devido ás temperaturas elevadas encontradas neste tipo de escoamento, efeitos de altas temperaturas sáo incluídos, como excitação vibracional das moléculas e reações químícas. Utiliza-se o modelo de 2 temperaturas (translacional e vibracional);5 espécíes (N2, O2, NO, N, O) e 17 reações químicas de Park [1986 para o modelamento do fenômeno termo-químico. Introduz-se uma formulação baseada no método dos elementos finitos, através do esquema de Taylor-Calerkin, para a discretização do tempo e do espaço e para a solução do sistema de equações. Alguns exemplos e aplicações de problemas hipersônicos bi e tridimensionais, difusivos e não difusivos, são apresentados, incluindo comparações entre os resultados obtidos no presente trabalho e na literatura.
Resumo:
O presente trabalho apresenta o estudo e implementação de um algoritmo numérico para análise de escoamentos turbulentos, tridimensionais, transientes, incompressíveis e isotérmicos, através da Simulação de Grande Escalas, empregando o Método de Elementos Finitos. A modelagem matemática do problema baseia-se nas equações de conservação de massa e quantidade de movimento de um fluido quase-incompressível. Adota-se um esquema de Taylor-Galerkin, com integração reduzida e fórmulas analíticas das funções de interpolação, para o elemento hexaédrico de oito nós, com funções lineares para as componentes de velocidade e constante no elemento para a pressão. Para abordar o problema da turbulência, emprega-se a Simulação de Grandes Escalas, com modelo para escalas inferiores à resolução da malha. Foram implementados o modelo clássico de Smagorinsky e o modelo dinâmico de viscosidade turbulenta, inicialmente proposto por Germano et al, 1991. Uma nova metodologia, denominada filtragem por elementos finitos independentes, é proposta e empregada, para o processo de segunda filtragem do modelo dinâmico. O esquema, que utiliza elementos finitos independentes envolvendo cada nó da malha original, apresentou bons resultados com um baixo custo computacional adicional. São apresentados resultados para problemas clássicos, que demonstram a validade do sistema desenvolvido. A aplicabilidade do esquema utilizado, para análise de escoamentos caracterizados por elevados números de Reynolds, é discutida no capítulo final. São apresentadas sugestões para aprimorar o esquema, visando superar as dificuldades encontradas com respeito ao tempo total de processamento, para análise de escoamentos tridimensionais, turbulentos e transientes .
Resumo:
Neste trabalho apresenta-se um algoritmo para a simulação de problemas tridimensionais de interação fluido-estrutura utilizando a técnica de elementos finitos. Um esquema de Taylor-Galerkin de dois passos e elementos tetraédricos lineares são empregados para o fluido, que pode ser compressível ou incompressível. É adotada uma formulação lagrangeana-euleriana arbitrária (ALE), compatível com o movimento da interface fluidoestrutura. Um método ftacionado de correção de velocidade é utilizado para os fluidos incompressíveis. A estrutura é analisada usando elementos triangulares com três nós e seis graus de liberdade por nó (três componentes de deslocamentos e três componentes de rotação). Os efeitos da não-linearidade geométrica são incluídos. O método de Newmark é empregado para integrar no tempo as equações dinâmicas de equilíbrio, usando-se uma descrição lagrangeana atualizada. O sistema de equações alge'bricas é solucionado através do método dos gradientes conjugados e o sistema não-linear, resultante de deslocamentos e rotacões finitas da estrutura, é solucionado com um esquema incremental-iterativo. O código é otimizado para aproveitar as vantagens do processamento vetorial.
Resumo:
Neste trabalho é desenvolvida uma solução semi-analítica para a Equação de Langevin assintótica (Equação de Deslocamento Aleatório) aplicada à dispersão de poluentes na Camada Limite Convectiva (CLC). A solução tem como ponto de partida uma equação diferencial de primeira ordem para o deslocamento aleatório, sobre a qual é aplicado o Método Iterativo de Picard. O novo modelo é parametrizado por um coeficiente de difusão obtido a partir da Teoria de Difusão Estatística de Taylor e de um modelo para o espectro de turbulência, assumindo a supersposição linear dos efeitos de turbulência térmica e mecânica. A avaliação do modelo é realizada através da comparação com dados de concentração medidos durante o experimento de dispersão de Copenhagen e com resultados obtidos por outros quatro modelos: modelo de partículas estocástico para velocidade aleatória (Modelo de Langevin), solução analítica da equação difusão-advecção, solução numérica da equação difusão-advecção e modelo Gaussiano. Uma análise estatística revela que o modelo proposto simula satisfatoriamente os valores de concentração observados e apresenta boa concordância com os resultados dos outros modelos de dispersão. Além disso, a solução através do Método Iterativo de Picard pode apresentar algumas vantagem em relação ao método clássico de solução.
Resumo:
A determinação da taxa de juros estrutura a termo é um dos temas principais da gestão de ativos financeiros. Considerando a grande importância dos ativos financeiros para a condução das políticas econômicas, é fundamental para compreender a estrutura que é determinado. O principal objetivo deste estudo é estimar a estrutura a termo das taxas de juros brasileiras, juntamente com taxa de juros de curto prazo. A estrutura a termo será modelado com base em um modelo com uma estrutura afim. A estimativa foi feita considerando a inclusão de três fatores latentes e duas variáveis macroeconômicas, através da técnica Bayesiana da Cadeia de Monte Carlo Markov (MCMC).
Resumo:
Una evolución del método de diferencias finitas ha sido el desarrollo del método de diferencias finitas generalizadas (MDFG) que se puede aplicar a mallas irregulares o nubes de puntos. En este método se emplea una expansión en serie de Taylor junto con una aproximación por mínimos cuadrados móviles (MCM). De ese modo, las fórmulas explícitas de diferencias para nubes irregulares de puntos se pueden obtener fácilmente usando el método de Cholesky. El MDFG-MCM es un método sin malla que emplea únicamente puntos. Una contribución de esta Tesis es la aplicación del MDFG-MCM al caso de la modelización de problemas anisótropos elípticos de conductividad eléctrica incluyendo el caso de tejidos reales cuando la dirección de las fibras no es fija, sino que varía a lo largo del tejido. En esta Tesis también se muestra la extensión del método de diferencias finitas generalizadas a la solución explícita de ecuaciones parabólicas anisótropas. El método explícito incluye la formulación de un límite de estabilidad para el caso de nubes irregulares de nodos que es fácilmente calculable. Además se presenta una nueva solución analítica para una ecuación parabólica anisótropa y el MDFG-MCM explícito se aplica al caso de problemas parabólicos anisótropos de conductividad eléctrica. La evidente dificultad de realizar mediciones directas en electrocardiología ha motivado un gran interés en la simulación numérica de modelos cardiacos. La contribución más importante de esta Tesis es la aplicación de un esquema explícito con el MDFG-MCM al caso de la modelización monodominio de problemas de conductividad eléctrica. En esta Tesis presentamos un algoritmo altamente eficiente, exacto y condicionalmente estable para resolver el modelo monodominio, que describe la actividad eléctrica del corazón. El modelo consiste en una ecuación en derivadas parciales parabólica anisótropa (EDP) que está acoplada con un sistema de ecuaciones diferenciales ordinarias (EDOs) que describen las reacciones electroquímicas en las células cardiacas. El sistema resultante es difícil de resolver numéricamente debido a su complejidad. Proponemos un método basado en una separación de operadores y un método sin malla para resolver la EDP junto a un método de Runge-Kutta para resolver el sistema de EDOs de la membrana y las corrientes iónicas. ABSTRACT An evolution of the method of finite differences has been the development of generalized finite difference (GFD) method that can be applied to irregular grids or clouds of points. In this method a Taylor series expansion is used together with a moving least squares (MLS) approximation. Then, the explicit difference formulae for irregular clouds of points can be easily obtained using a simple Cholesky method. The MLS-GFD is a mesh-free method using only points. A contribution of this Thesis is the application of the MLS-GFDM to the case of modelling elliptic anisotropic electrical conductivity problems including the case of real tissues when the fiber direction is not fixed, but varies throughout the tissue. In this Thesis the extension of the generalized finite difference method to the explicit solution of parabolic anisotropic equations is also given. The explicit method includes a stability limit formulated for the case of irregular clouds of nodes that can be easily calculated. Also a new analytical solution for homogeneous parabolic anisotropic equation has been presented and an explicit MLS- GFDM has been applied to the case of parabolic anisotropic electrical conductivity problems. The obvious difficulty of performing direct measurements in electrocardiology has motivated wide interest in the numerical simulation of cardiac models. The main contribution of this Thesis is the application of an explicit scheme based in the MLS-GFDM to the case of modelling monodomain electrical conductivity problems using operator splitting including the case of anisotropic real tissues. In this Thesis we present a highly efficient, accurate and conditionally stable algorithm to solve a monodomain model, which describes the electrical activity in the heart. The model consists of a parabolic anisotropic partial differential equation (PDE), which is coupled to systems of ordinary differential equations (ODEs) describing electrochemical reactions in the cardiac cells. The resulting system is challenging to solve numerically, because of its complexity. We propose a method based on operator splitting and a meshless method for solving the PDE together with a Runge-Kutta method for solving the system of ODE’s for the membrane and ionic currents.
Resumo:
Two hundred and six patients with severe head injury (Glasgow Coma Scale of 8 points or less after nonsurgical resuscitation on admission), managed at Intensive Care Unit-Hospital das Clínicas - Universidade Estadual de Campinas were prospectively analysed. All patients were assessed by CT scan and 72 required neurosurgical intervention. All patients were continuously monitored to evaluate intracranial pressure (ICP) levels by a subarachnoid device (11 with subarachnoid metallic bolts and 195 with subarachnoid polyvinyl catheters). The ICP levels were continuously observed in the bedside pressure monitor display and their end-hour values were recorded in a standard chart. The patients were managed according to a standard protocol guided by the ICP levels. There were no intracranial haemorrhagic complications or hematomas due the monitoring method. Sixty six patients were punctured by lateral C1-C2 technique to assess infectious complications and 2 had positive cerebrospinal fluid samples for Acinetobacter sp. The final results measured at hospital discharge showed 75 deaths (36,40%) and 131 (63,60%) survivors. ICP levels had significantly influenced the final results (p<0,001). The subarachnoid method to continuously assess the ICP levels was considered aplicable, safe, simple, low cost and useful to advise the management of the patients. The ICP record methodology was practical and useful. Despite the current technical advances the subarachnoid method was considered viable to assess the ICP levels in severe head injury.
Resumo:
The purpose of this study is to introduce a method to evaluate visual functions in infants in the first three months of life. An adaptation of the Guide for the Assessment of Visual Ability in Infants (Gagliardo, 1997) was used. The instrument was a ring with string. It was implemented a pilot study with 33 infants, selected according to the following criteria: neonates well enough to go home within two days of birth; 1 to 3 months of chronological age; monthly evaluation with no absence; subjects living in Campinas/SP metropolitan area. In the first month we observed: visual fixation (93,9%); eye contact (90,9%); horizontal tracking (72,7%); inspects surroundings (97,0%). In the third month, we observed: inspects own hands (42,4%) and increased movements of arms (36,4%). This method allowed the evaluation of visual functions in infants, according to the chronological age. Alterations in this function will facilitate immediate referral to medical services for diagnoses.
Resumo:
The ONIOM method was used to calculate the proton affinities (PA) of n-alkylamines (CnH2n+1NH2, n = 3 to 6, 8, 10, 12, 14, 16 and 18). The calculations were carried out at several levels (HF, MP2, B3LYP, QCISD(T), ...) using Pople basis sets and at the QCISD(T) level using basis sets developed by the generator coordinate method (GCM) and adapted to effective core potentials. PAs were also obtained through the GCM and high level methods, like ONIOM[QCISD(T)/6-31+G(2df,p):MP2/6-31G+G(d,p))//ONIOM[MP2/6-31+G(d,p):HF/6-31G]. The average error using the GCM, with respect to experimental data, was 3.4 kJ mol-1.