906 resultados para Incidence function model


Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this work we study the local coupled Kuramoto model with periodic boundary conditions. Our main objective is to show how analytical solutions may be obtained from symmetry assumptions, and while we proceed on our endeavor we show apart from the existence of local attractors, some unexpected features resulting from the symmetry properties, such as intermittent and chaotic period phase slips, degeneracy of stable solutions and double bifurcation composition. As a result of our analysis, we show that stable fixed points in the synchronized region may be obtained with just a small amount of the existent solutions, and for a class of natural frequencies configuration we show analytical expressions for the critical synchronization coupling as a function of the number of oscillators, both exact and asymptotic. © 2013 Elsevier Ltd. All rights reserved.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Accumulating evidence demonstrates that chronic inflammation plays an important role in heart hypertrophy and cardiac diseases. However, the fine-tuning of cellular and molecular mechanisms that connect inflammatory process and cardiac diseases is still under investigation. Many reports have demonstrated that the overexpression of the cyclooxygenase-2 (COX-2), a key enzyme in the conversion of arachidonic acid to prostaglandins and other prostanoids, is correlated with inflammatory processes. Increased level of prostaglandin E2 was also found in animal model of left ventricle of hypertrophy. Based on previous observations that demonstrated a regulatory loop between COX-2 and the RNA-binding protein CUGBP2, we studied cellular and molecular mechanisms of a pro-inflammatory stimulus in a cardiac cell to verify if the above two molecules could be correlated with the inflammatory process in the heart. A cellular model of investigation was established and H9c2 was used.We also demonstrated a regulatory connection between COX-2 and CUGBP2 in the cardiac cells. Based on a set of different assays including gene silencing and fluorescence microscopy, we describe a novel function for the RNA-binding protein CUGBP2 in controlling the pro-inflammatory stimulus: subcellular trafficking of messenger molecules to specific cytoplasmic stress granules to maintain homeostasis. © 2013 International Federation for Cell Biology.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We present a general model of brain function (the calcium wave model), distinguishing three processing modes in the perception-action cycle. The model provides an interpretation of the data from experiments on semantic memory conducted by the authors. © 2013 Pereira Jr, Santos and Barros.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper, a hybrid heuristic methodology that employs fuzzy logic for solving the AC transmission network expansion planning (AC-TEP) problem is presented. An enhanced constructive heuristic algorithm aimed at obtaining a significant quality solution for such complicated problems considering contingency is proposed. In order to indicate the severity of the contingency, 2 performance indices, namely the line flow performance index and voltage performance index, are calculated. An interior point method is applied as a nonlinear programming solver to handle such nonconvex optimization problems, while the objective function includes the costs of the new transmission lines as well as the real power losses. The performance of the proposed method is examined by applying it to the well-known Garver system for different cases. The simulation studies and result analysis demonstrate that the proposed method provides a promising way to find an optimal plan. Obtaining the best quality solution shows the capability and the viability of the proposed algorithm in AC-TEP. © Tübi̇tak..

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Background. Characterization of novel rodent models for prostate cancer studies requires evaluation of either spontaneous and carcinogen-induced tumors as well as tumor incidence in different prostatic lobes. We propose a new short-term rodent model of chemically induced prostate carcinogenesis in which prostate cancer progression occurs differentially in the dorsolateral and ventral lobes. Methods. Adult gerbils were treated with MNU alone or associated with testosterone for 3 or 6 months of treatment. Tumor incidence, latency, localization, and immunohistochemistry (AR, PCNA, smooth muscle α-actin, p63, MGMT, and E-cadherin) were studied in both lobes. Results. Comparisons between both lobes revealed that lesions developed first in the DL while the VL presented longer tumor latency. However, after 6 months, there was a dramatic increase in tumor multiplicity in the VL, mainly in MNU-treated groups. Lesions clearly progressed from a premalignant to a malignant phenotype over time and tumor latency was decreased by MNU + testosterone administration. Three-dimensional reconstruction of the prostatic complex showed that the DL developed tumors exclusively in the periurethral area and showed intense AR, PCNA, and MGMT immunostaining. Moreover, VL lesions emerged throughout the entire lobe. MNU-induced lesions presented markers indicative of an aggressive phenotype: lack of basal cells, rupture of the smooth muscle cell layer, loss of E-cadherin, and high MGMT staining. Conclusions. There are distinct pathways involved in tumor progression in gerbil prostate lobes. This animal provides a good model for prostate cancer since it allows the investigation of advanced steps of carcinogenesis with shorter latency periods in both lobes. Copyright © 2013 Wiley Periodicals, Inc.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Exercise capacity and quality of life (QOL) are important outcome predictors in patients with systolic heart failure (HF), independent of left ventricular (LV) ejection fraction (LVEF). LV diastolic function has been shown to be a better predictor of aerobic exercise capacity in patients with systolic dysfunction and a New York Heart Association (NYHA) classification >II. We hypothesized that the currently used index of diastolic function E/e' is associated with exercise capacity and QOL, even in optimally treated HF patients with reduced LVEF. This prospective study included 44 consecutive patients aged 55±11 years (27 men and 17 women), with LVEF,0.50 and NYHA functional class I-III, receiving optimal pharmacological treatment and in a stable clinical condition, as shown by the absence of dyspnea exacerbation for at least 3 months. All patients had conventional transthoracic echocardiography and answered the Minnesota Living with HF Questionnaire, followed by the 6-min walk test (6MWT). In a multivariable model with 6MWT as the dependent variable, age and E/e' explained 27% of the walked distance in 6MWT (P=0.002; multivariate regression analysis). No association was found between walk distance and LVEF or mitral annulus systolic velocity. Only normalized left atrium volume, a sensitive index of diastolic function, was associated with decreased QOL. Despite the small number of patients included, this study offers evidence that diastolic function is associated with physical capacity and QOL and should be considered along with ejection fraction in patients with compensated systolic HF.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A migração com amplitudes verdadeiras de dados de reflexão sísmica, em profundidade ou em tempo, possibilita que seja obtida uma medida dos coeficientes de reflexão dos chamados eventos de reflexão primária. Estes eventos são constituídos, por exemplo, pelas reflexões de ondas longitudinais P-P em refletores de curvaturas arbitrárias e suaves. Um dos métodos mais conhecido é o chamado migração de Kirchhoff, através do qual a imagem sísmica é produzida pela integração do campo de ondas sísmicas, utilizando-se superfícies de difrações, denominadas de Superfícies de Huygens. A fim de se obter uma estimativa dos coeficientes de reflexão durante a migração, isto é a correção do efeito do espalhamento geométrico, utiliza-se uma função peso no operador integral de migração. A obtenção desta função peso é feita pela solução assintótica da integral em pontos estacionários. Tanto no cálculo dos tempos de trânsito como na determinação da função peso, necessita-se do traçamento de raios, o que torna a migração em situações de forte heterogeneidade da propriedade física um processo com alto custo computacional. Neste trabalho é apresentado um algoritmo de migração em profundidade com amplitudes verdadeiras, para o caso em que se tem uma fonte sísmica pontual, sendo o modelo de velocidades em subsuperfície representado por uma função que varia em duas dimensões, e constante na terceira dimensão. Esta situação, conhecida como modelo dois-e-meio dimensional (2,5-D), possui características típicas de muitas situações de interesse na exploração do petróleo, como é o caso da aquisição de dados sísmicos 2-D com receptores ao longo de uma linha sísmica e fonte sísmica 3-D. Em particular, é dada ênfase ao caso em que a velocidade de propagação da onda sísmica varia linearmente com a profundidade. Outro tópico de grande importância abordado nesse trabalho diz respeito ao método de inversão sísmica denominado empilhamento duplo de difrações. Através do quociente de dois empilhamentos com pesos apropriados, pode-se determinar propriedades físicas e parâmetros geométricos relacionados com a trajetória do raio refletido, os quais podem ser utilizados a posteriori no processamento dos dados sísmicos, visando por exemplo, a análise de amplitudes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No presente trabalho de tese é apresentada uma nova técnica de empilhamento de dados sísmicos para a obtenção da seção de incidência normal ou afastamento fonte-receptor nulo, aplicável em meios bidimensionais com variações laterais de velocidade. Esta nova técnica denominada Empilhamento Sísmico pela Composição de Ondas Planas (empilhamento PWC) foi desenvolvida tomando como base os conceitos físicos e matemáticos da decomposição do campo de ondas em ondas planas. Este trabalho pode ser dividido em três partes: Uma primeira parte, onde se apresenta uma revisão da técnica de empilhamento sísmico convencional e do processo de decomposição do campo de ondas produzido a partir de fontes pontuais em suas correspondentes ondas planas. Na segunda parte, é apresentada a formulação matemática e o procedimento de aplicação do método de empilhamento sísmico pela composição de ondas planas. Na terceira parte se apresenta a aplicação desta nova técnica de empilhamento na serie de dados Marmousi e uma analise sobre a atenuação de ruído. A formulação matemática desta nova técnica de empilhamento sísmico foi desenvolvida com base na teoria do espalhamento aplicado a ondas sísmicas sob a restrição do modelo de aproximação de Born. Nesse sentido, inicialmente se apresenta a determinação da solução da equação de onda caustica para a configuração com afastamento fonte-receptor finito, que posteriormente é reduzido para a configuração de afastamento fonte-receptor nulo. Por outra parte, com base nessas soluções, a expressão matemática deste novo processo de empilhamento sísmico é resolvida dentro do contexto do modelo de aproximação de Born. Verificou-se que as soluções encontradas por ambos procedimentos, isto é, por meio da solução da equação da onda e pelo processo de empilhamento proposto, são iguais, mostrando-se assim que o processo de empilhamento pela composição de ondas planas produz uma seção com afastamento fonte-receptor nulo. Esta nova técnica de empilhamento basicamente consiste na aplicação de uma dupla decomposição do campo de ondas em onda planas por meio da aplicação de dois empilhamentos oblíquos (slant stack), isto é um ao longo do arranjo das fontes e outro ao longo do arranjo dos detectores; seguido pelo processo de composição das ondas planas por meio do empilhamento obliquo inverso. Portanto, com base nestas operações e com a ajuda de um exemplo de aplicação nos dados gerados a partir de um modelo simples, são descritos os fundamentos e o procedimento de aplicação (ou algoritmo) desta nova técnica de obtenção da seção de afastamento nulo. Como exemplo de aplicação do empilhamento PWC em dados correspondentes a um meio com variações laterais de velocidade, foi aplicado nos dados Marmousi gerados segundo a técnica de cobertura múltipla a partir de um modelo que representa uma situação geológica real. Por comparação da seção resultante com a similar produzida pelo método de empilhamento convencional, observa-se que a seção de afastamento nulo desta nova técnica apresenta melhor definição e continuidade dos reflectores, como também uma melhor caracterização da ocorrência de difrações. Por último, da atenuação de ruído aleatório realizada nos mesmos dados, observa-se que esta técnica de empilhamento também produz uma atenuação do ruído presente no sinal, a qual implica um aumento na relação sinal ruído.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A simulação de uma seção sísmica de afastamento-nulo (ZO) a partir de dados de cobertura múltipla para um meio 2-D, através do empilhamento, é um método de imageamento de reflexão sísmica muito utilizado, que permite reduzir a quantidade de dados e melhorar a relação sinal/ruído. Segundo Berkovitch et al. (1999) o método Multifoco está baseado na Teoria do Imageamento Homeomórfico e consiste em empilhar dados de cobertura múltipla com distribuição fonte-receptor arbitrária de acordo com uma nova correção de sobretempo, chamada Multifoco. Esta correção de sobretempo esta baseada numa aproximação esférica local da frente de onda focalizante na vizinhança da superfície da terra. Este método permite construir uma seção sísmica no domínio do tempo de afastamento nulo aumentando a relação sinal/ruído. A técnica Multifoco não necessita do conhecimento a priori de um macro-modelo de velocidades. Três parâmetros são usados para descrever a aproximação de tempo de trânsito, Multifoco, os quais são: 1) o ângulo de emergência do raio de afastamento nulo ou raio de reflexão normal (β0), 2) a curvatura da frente de onda no Ponto de Incidência Normal (RNIP) e 3) curvatura da frente de Onda Normal (RN). Sendo também necessário a velocidade próximo a superfície da terra. Neste trabalho de tese aplico esta técnica de empilhamento Multifoco para dados de cobertura múltipla referidos a modelos de velocidade constante e modelo heterogêneos, com o objetivo de simular seções sísmicas afastamento-nulo. Neste caso, como se trata da solução de um problema direto, o macro-modelo de velocidades é considerado conhecido a priori. No contexto do problema inverso tem-se que os parâmetros RNIP, RN e β0 podem ser determinados a partir da análise de coerência aplicada aos dados sísmicos de múltipla cobertura. Na solução deste problema a função objetivo, a ser otimizada, é definida pelo cálculo da máxima coerência existente entre os dados na superfície de empilhamento sísmico. Neste trabalho de tese nos discutimos a sensibilidade da aproximação do tempo de trânsito usado no empilhamento Multifoco, como uma função dos parâmetros RNIP, RN e β0. Esta análise de sensibilidade é feita de três diferentes modos: 1) a primeira derivada da função objetivo, 2) a medida de coerência, denominada semelhança, e 3) a sensibilidade no Empilhamento Multifoco.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As descargas atmosféricas representam um dos maiores fatores de riscos para o setor elétrico, especialmente na Amazônia, uma região do mundo identificada com altas densidades de ocorrências e picos de corrente de raios. Nesse contexto, a rede STARNET (Sferics Timing And Ranging NETwork), único sistema de detecção de descargas elétricas atmosféricas, terrestre, gratuito, e contínuo, cobrindo toda a região Amazônica, foi escolhido para a geração de padrões de descargas atmosféricas necessários a otimização dos sistemas de proteção das linhas de transmissão por meio de sistema de monitoramento de descargas atmosféricas. Contudo, o funcionamento intermitente, observado nos diagramas operacionais das várias estações da rede STARNET, afeta o desempenho global do sistema, em especial a eficiência de detecção. Por isso, foi desenvolvido um modelo de uniformização dos dados de descargas atmosféricas em função da configuração da rede (número e localização dos sensores em operação), no objetivo final de editar mapas de índice ceráunico e densidades de raios confiáveis. Existem regiões da Amazônia que sempre apresentam anomalias positivas de densidade de raios como as regiões de Belém e Manaus, bem como o estado do Tocantins que afeitam as linhas de transmissão. Depois, a incidência de raios nas linhas de transmissão na Amazônia foi estimada a partir da distribuição de pico de correntes registrada pela RDR-SIPAM e da densidade de raios corrigida da rede STARNET. A avaliação do desempenho da rede STARNET tendo como referencia à rede de detecção de raios do Sistema de Proteção da Amazônia (RDR-SIPAM) mostrou também uma forte dependência da eficiência de detecção da rede STARNET em função do pico de corrente das descargas atmosféricas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem por objetivo a aplicação de um método de migração com amplitudes verdadeiras, considerando-se um meio acústico onde a velocidade de propagação varia linearmente com a profundidade. O método de migração é baseado na teoria dos raios e na integral de migração de Kirchhoff, procurando posicionar de forma correta os refletores e recuperar os respetivos coeficientes de reflexão. No processo de recuperação dos coeficientes de reflexão, busca-se corrigir o fator de espalhamento geométrico de reflexões sísmicas primárias, sem o conhecimento a priori dos refletores procurados. Ao considerar-se configurações fonte-receptor arbitrárias, as reflexões primárias podem ser imageadas no tempo ou profundidade, sendo as amplitudes do campo de ondas migrado uma medida dos coeficientes de reflexão (função do ângulo de incidência). Anteriormente têm sido propostos alguns algoritmos baseados na aproximação de Born ou Kirchhoff. Todos são dados em forma de um operador integral de empilhamento de difrações, que são aplicados à entrada dos dados sísmicos. O resultado é uma seção sísmica migrada, onde cada ponto de reflexão é imageado com uma amplitude proporcional ao coeficiente de reflexão no ponto. No presente caso, o processo de migração faz uso de um modelo com velocidade que apresenta uma distribuição que varia linearmente com a profundidade, conhecido também como gradiente constante de velocidade. O esquema de migração corresponde a uma versão modificada da migração de empilhamento por difração e faz uso explícito da teoria do raio, por exemplo, na descrição de tempos de trânsito e amplitudes das reflexões primárias, com as quais a operação de empilhamento e suas propriedades podem ser entendidas geometricamente. Efeitos como o espalhamento geométrico devido à trajetória do raio levam a distorção das amplitudes. Estes efeitos têm que ser corregidos durante o processamento dos dados sísmicos. Baseados na integral de migração de Kirchhoff e na teoria paraxial dos raios, foi derivada a função peso e o operador da integral por empilhamento de difrações para um modelo sísmico 2,5-D, e aplicado a uma serie de dados sintéticos em ambientes com ruído e livre de ruído. O resultado mostra a precisão e estabilidade do método de migração em um meio 2,5-D como ferramenta para obter informação sobre as propriedades de refletividade da subsuperfície da terra. Neste método não são levados em consideração a existência de caústicas nem a atenuação devido a fricção interna.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, foi realizado um estudo de mapeamento de áreas de incidência e previsões para os casos de dengue na área urbana de Belém. Para as previsões foi utilizada à incidência de dengue com a precipitação pluviométrica a partir de modelos estatísticos, baseados na metodologia de Box e Jenkins de series temporais. O período do estudo foi de 05 anos (2007-2011). Na pesquisa temos métodos multivariados de series temporais, com uso de função de transferência e modelos espaciais, em que se analisou a existência de autocorrelações espaciais na variável em estudo. Os resultados das análises dos dados de incidência de casos de dengue e precipitação mostraram que, o aumento no número de casos de dengue acompanha o aumento na precipitação, demonstrando a relação direta entre o número de casos de dengue e a precipitação nos anos em estudo. O modelo de previsão construído para a incidência de casos de dengue apresentou um bom ajuste com resultados satisfatórios podendo, neste caso, ser utilizado na previsão da dengue. Em relação à análise espacial, foi possível uma visualização da incidência de casos na área urbana de Belém, com as respectivas áreas de incidência, mostrando os níveis de significância em porcentagem. Para o período estudado observou-se o comportamento e as variações dos casos de dengue, com destaque para quatro bairros: Marco, Guamá, Pedreira e Tapanã, com possíveis influências destes bairros nas áreas (bairros) vizinhas. Portanto, o presente estudo evidencia a contribuição para o planejamento das ações de controle da dengue, ao servir de instrumento no apoio às decisões na área de saúde pública.