919 resultados para HYPERBOLIC HIGHER ORDER EQUATIONS


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, a method for solving the short term transmission network expansion planning problem is presented. This is a very complex mixed integer nonlinear programming problem that presents a combinatorial explosion in the search space. In order to And a solution of excellent quality for this problem, a constructive heuristic algorithm is presented in this paper. In each step of the algorithm, a sensitivity index is used to add a circuit (transmission line or transformer) or a capacitor bank (fixed or variable) to the system. This sensitivity index is obtained solving the problem considering the numbers of circuits and capacitors banks to be added (relaxed problem), as continuous variables. The relaxed problem is a large and complex nonlinear programming and was solved through a higher order interior point method. The paper shows results of several tests that were performed using three well-known electric energy systems in order to show the possibility and the advantages of using the AC model. ©2007 IEEE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Since Sharir and Pnueli, algorithms for context-sensitivity have been defined in terms of 'valid' paths in an interprocedural flow graph. The definition of valid paths requires atomic call and ret statements, and encapsulated procedures. Thus, the resulting algorithms are not directly applicable when behavior similar to call and ret instructions may be realized using non-atomic statements, or when procedures do not have rigid boundaries, such as with programs in low level languages like assembly or RTL. We present a framework for context-sensitive analysis that requires neither atomic call and ret instructions, nor encapsulated procedures. The framework presented decouples the transfer of control semantics and the context manipulation semantics of statements. A new definition of context-sensitivity, called stack contexts, is developed. A stack context, which is defined using trace semantics, is more general than Sharir and Pnueli's interprocedural path based calling-context. An abstract interpretation based framework is developed to reason about stack-contexts and to derive analogues of calling-context based algorithms using stack-context. The framework presented is suitable for deriving algorithms for analyzing binary programs, such as malware, that employ obfuscations with the deliberate intent of defeating automated analysis. The framework is used to create a context-sensitive version of Venable et al.'s algorithm for analyzing x86 binaries without requiring that a binary conforms to a standard compilation model for maintaining procedures, calls, and returns. Experimental results show that a context-sensitive analysis using stack-context performs just as well for programs where the use of Sharir and Pnueli's calling-context produces correct approximations. However, if those programs are transformed to use call obfuscations, a contextsensitive analysis using stack-context still provides the same, correct results and without any additional overhead. © Springer Science+Business Media, LLC 2011.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A model of the DN interaction is presented which is developed in close analogy to the meson-exchange KN potential of the Jülich group utilizing SU(4) symmetry constraints. The main ingredients of the interaction are provided by vector meson (ρ, ω) exchange and higher-order box diagrams involving D *N, DΔ, and D *Δ intermediate states. The coupling of DN to the π Λ c and π Σ c channels is taken into account. The interaction model generates the Λ c(2595)-resonance dynamically as a DN quasi-bound state. Results for DN total and differential cross sections are presented and compared with predictions of two interaction models that are based on the leading-order Weinberg-Tomozawa term. Some features of the Λ c(2595)-resonance are discussed and the role of the near-by π Σ c threshold is emphasized. Selected predictions of the orginal KN model are reported too. Specifically, it is pointed out that the model generates two poles in the partial wave corresponding to the Λ(1405)-resonance. © 2011 SIF, Springer-Verlag Berlin Heidelberg.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Matemática Universitária - IGCE

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Física - IFT

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Teoricamente, a predição de falha em cadeia de isoladores pode ser observada pela verificação do comportamento harmônico da corrente através dos isoladores, chamada de corrente de fuga. Isto porque a capacitância de uma cadeia de isoladores permite a passagem das componentes harmônicas de maior ordem da corrente na linha. No entanto os projetos e planejamento de linhas de transmissão só levam em consideração as dimensões e geometrias da linha; esquecendo ou ignorando os efeitos ambientais em uma linha de transmissão. A omissão de tais efeitos, podem confundir um diagnóstico de falha no sistema de isolação da linha, de forma que foi necessário desenvolver uma metodologia para determinação dos valores dos parâmetros elétricos, resistência elétrica e capacitância em função de variáveis ambientais como: temperatura ambiente, radiação solar, umidade relativa do ar, velocidade do vento e direção do vento, particularmente a determinação do comportamento da capacitância, em função dessas variáveis ambientais se deu de maneira inovadora e experimental, tendo em vista obter um modelo matemático de linha de transmissão mais realista e dinâmico, que possa identificar de maneira precisa os parâmetros elétricos, sob a influência das variáveis ambientais. Nesse trabalho é desenvolvido esse modelo, que, além de ser alimentado com dados elétricos e ambientais reais, é feito o estudo da decomposição harmônica da corrente de fuga; além da comparação com resultados de outros modelos já existentes. São realizadas ainda, simulações de falhas virtuais, que compravam a eficiência e limitações do modelo, além de sugerir uma forma de monitoração em tempo real e a baixos custos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este artigo apresenta um estudo experimental de técnicas de identificação paramétrica aplicadas à modelagem dinâmica de um servidor web Apache. Foi desenvolvido um arranjo experimental para simular variações de carga no servidor. O arranjo é composto por dois computadores PC, sendo um deles utilizado para executar o servidor Apache e o outro utilizado como um gerador de carga, solicitando requisições de serviço ao servidor Apache. Foram estimados modelos paramétricos auto-regressivos (AR) para diferentes pontos de operação e de condição de carga. Cada ponto de operação foi definido em termos dos valores médios para o parâmetro de entrada MaxClients (parâmetro utilizado para definir o número máximo de processos ativos) e a saída percentual de consumo de CPU (Central Processing Unit) do servidor Apache. Para cada ponto de operação foram coletadas 600 amostras, com um intervalo de amostragem de 5 segundos. Metade do conjunto de amostras coletadas em cada ponto de operação foi utilizada para estimação do modelo, enquanto que a outra metade foi utilizada para validação. Um estudo da ordem mais adequada do modelo mostrou que, para um ponto de operação com valor reduzido de MaxClients, um modelo AR de 7a ordem pode ser satisfatório. Para valores mais elevados de MaxClients, os resultados mostraram que são necessários modelos de ordem mais elevada, devido às não-linearidades inerentes ao sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A continuidade categorial é uma propriedade indiscutível da linguagem para a tradição funcionalista, que a trata como um verdadeiro universal linguístico. Além de buscar evidência sistemática para a comprovação desse axioma, o principal objetivo deste trabalho é analisar a estrutura argumental da nominalização, num esforço concentrado por demonstrar que esse mesmo princípio universal é metodologicamente útil e teoricamente válido para postular relações intralinguísticas de continuidade categorial mesmo entre classes aparentemente discretas como as de substantivo e verbo. A trajetória percorrida para a sustentação da hipótese da continuidade categorial passa necessariamente pela comprovação de uma hipótese secundária, a de preservação de valência, postulada por Dik (1985; 1997), segundo a qual a estrutura argumental é parte constitutiva da nominalização. Essa busca não teria êxito se a trajetória percorrida não utilizasse um atalho necessário, representado pela teoria prototípica de categorização. De fato, postular a existência de categorias intermediárias, como a de nominalização, implica necessariamente a existência de membros mais prototípicos de uma categoria. A existência de estrutura argumental, que sinaliza a representação de entidades de ordem superior, permite aproximar a nominalização de membros não-prototípicos da categoria dos verbos como formas não-finitas, enquanto a ausência de estrutura argumental, que sinaliza a representação de uma entidade de primeira ordem, permitiu aproximá-lo de membros prototípicos da categoria dos substantivos

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Valency is an inherent property of nominalizations representing higher-order entities, and as such it should be included in their underlying representation. On the basis of this assumption, I postulate that cases of non-overt arguments, which are very common in Brazilian Portuguese and in many other languages of the world, should be considered a special type of valency realization. This paper aims to give empirical support to this postulate by showing that non-overt arguments are both semantically and pragmatically motivated. The semantic and pragmatic motivations for non-overt arguments may be accounted for by the dynamic implementation of the FDG model. I argue that the way valency is realized by means of non-overt arguments suggests a strong parallelism between nominalizations and other types of non-finite embedded constructions – like infinitival and participial ones. By providing empirical evidence for this parallelism I arrive at the conclusion that there are at least three kinds of non-finite embedded constructions, rather than only two, as suggested by Dik (1997).