931 resultados para cryptographic pairing computation, elliptic curve cryptography
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
ABSTRACT: In this work we are concerned with the existence and uniqueness of T -periodic weak solutions for an initial-boundary value problem associated with nonlinear telegraph equations typein a domain. Our arguments rely on elliptic regularization technics, tools from classical functional analysis as well as basic results from theory of monotone operators.
Resumo:
A interpretação de anomalias gravimétricas é de grande importância no estudo de feições geológicas que ocorrem na crosta terrestre. Esta interpretação é, no entanto, dificultada pelo fato das anomalias gravimétricas serem resultantes da soma total dos efeitos produzidos por todos os contrastes de densidades de subsuperfície. Desse modo, com o intuito de separar efeitos de feições mais profundas de efeitos de feições mais rasas, bem como a caracterização da geometria desses dois conjuntos de feições, apresentamos um método de separação das componentes regional e residual do campo e a subsequente interpretação de cada componente. A separação regional-residual de dados gravimétricos é efetuada através da aproximação do campo regional por um polinômio ajustado ao campo observado por um método robusto. Este método é iterativo e usa como aproximação inicial a solução obtida através do ajuste polinomial pelo método dos mínimos quadrados. O método empregado minimiza a influência de observações contendo forte contribuição do campo residual no ajuste do campo regional. A componente regional obtida a partir da separação regional-residual é transformada em um mapa de distâncias verticais em relação a um nível de referência. Esta transformação compreende duas etapas. A primeira consiste na obtenção da continuação para baixo da componente regional, que é pressuposta ser causada por uma interface suave separando dois meios homogêneos, representando a interface crosta-manto, cujo contraste de densidade é supostamente conhecido. A segunda consiste na transformação do mapa de continuação para baixo em um mapa de distâncias verticais entre o nível de continuação (tomado como nível de referência) e a interface. Este método apresenta duas dificuldades. A primeira está ligada à instabilidade, havendo portanto a necessidade do emprego de um estabilizador o que acarreta a perda de resolução das feições que se desejam mapear. A segunda, inerente ao método gravimétrico, consiste na impossibilidade da determinação das profundidades absolutas da interface em cada ponto, bastando entretanto o conhecimento da profundidade absoluta em um ponto, através de informação independente, para que todas as outras profundidades absolutas sejam conhecidas. A componente residual obtida a partir da separação regional-residual é transformada em um mapa de contrastes de densidade aparente. Esta transformação consiste no cálculo do contraste de densidade de várias fontes prismáticas através de uma inversão linear pressupondo que as fontes reais estejam das a uma placa horizontal, com contrastes de densidade variando apenas nas direções horizontais. O desempenho do método de separação regional-residual apresentado foi avaliado, através de testes empregando dados sintéticos, fornecendo resultados superiores em relação aos métodos dos mínimos quadrados e da análise espectral. O método de interpretação da componente regional teve seu desempenho avaliado em testes com dados sintéticos onde foram produzidos mapeamentos de interfaces bem próximas das estruturas reais. O limite de resolução das feições que se desejam mapear depende não só do grau do polinômio ajustante, como também da própria limitação inerente ao método gravimétrico. Na interpretação da componente residual é necessário que se postule ou tenha informação a priori sobre a profundidade do topo e espessura da placa onde as fontes estão supostamente confinadas. No entanto, a aplicação do método em dados sintéticos, produziu estimativas razoáveis para os limites laterais das fontes, mesmo na presença de fontes interferentes, e pressupondo-se valores para profundidade do topo e espessura da placa, diferentes dos valores verdadeiros. A ambiguidade envolvendo profundidade do topo, espessura e densidade pode ser visualizada através de gráficos de valores de densidade aparente contra profundidade do topo presumida para a placa para vários valores postulados para a espessura da placa. Estes mesmos gráficos permitem, pelo aspecto das curvas, a elaboração de uma interpretação semi-quantitativa das profundidades das fontes reais. A seqüência dos três métodos desenvolvidos neste trabalho foi aplicada a dados gravimétricos da região norte do Piauí e noroeste do Ceará levando a um modelo de organização crustal que compreende espessamentos e adelgaçamentos crustais associados a um evento compressivo que possibilitou a colocação de rochas densas da base da crosta a profundidades rasas. Este modelo ê compatível com os dados geológicos de superfície. É ainda sugerida a continuidade, por mais 200 km em direção a sudoeste, do Cinturão de Cisalhamento Noroeste do Ceará por sob os sedimentos da Bacia do Parnaíba, com base nas evidências fornecidas pela interpretação da anomalia residual. Embora esta seqüência de métodos tenha sido desenvolvida com vistas ao estudo de feições crustais de porte continental, ela também pode ser aplicada ao estudo de feições mais localizadas como por exemplo no mapeamento do relevo do embasamento de/bacias sedimentares onde os sedimentos são cortados por rochas intrusivas mais densas.
Resumo:
In this paper, we propose a hybrid methodology based on Graph-Coloring and Genetic Algorithm (GA) to solve the Wavelength Assignment (WA) problem in optical networks, impaired by physical layer effects. Our proposal was developed for a static scenario where the physical topology and traffic matrix are known a priori. First, we used fixed shortest-path routing to attend demand requests over the physical topology and the graph-coloring algorithm to minimize the number of necessary wavelengths. Then, we applied the genetic algorithm to solve WA. The GA finds the wavelength activation order on the wavelengths grid with the aim of reducing the Cross-Phase Modulation (XPM) effect; the variance due to the XPM was used as a function of fitness to evaluate the feasibility of the selected WA solution. Its performance is compared with the First-Fit algorithm in two different scenarios, and has shown a reduction in blocking probability up to 37.14% when considered both XPM and residual dispersion effects and up to 71.42% when only considered XPM effect. Moreover, it was possible to reduce by 57.14% the number of wavelengths.
Resumo:
Com o objetivo de ajustar modelos não-lineares, foram utilizados registros mensais do peso de 10 fêmeas de cateto (Pecari tajacu) coletados durante dois anos, no criatório do campo experimental Álvaro Adolfo da Embrapa Amazônia Oriental, Belém, PA. Utilizaram-se os modelos de Von Bertalanffy, Brody, Gompertz e Logístico. Os parâmetros foram estimados usando o procedimento NLIN do aplicativo SAS. Os critérios utilizados para verificar o ajuste dos modelos foram: desvio padrão assintótico (ASD); coeficiente de determinação (R2); desvio médio absoluto dos resíduos (ARD) e o índice assintótico (AR). Os modelos Brody e Logístico estimaram, respectivamente, o maior (19,44kg) e o menor (19,18kg) peso assintótico (A), caracterizando a menor (0,0064kg/dia) e a maior (0,0113kg/dia) taxa de maturação (K), haja vista a natureza antagônica entre estes parâmetros, comprovada pela correlação fenotípica variando entre -0,75 à -0,47. O modelo Brody estimou o menor valor para o ARD, fator limitante para caracterizar o menor valor para o AR por este modelo. Considerando o AR, o modelo Brody apresentou o melhor ajuste, contudo, pelos valores encontrados, os demais modelos também apresentaram ajuste adequando aos dados ponderais da referida espécie/sexo. Com base no AR adotado neste trabalho, recomenda-se o modelo Brody para ajustar a curva de crescimento de fêmeas de cateto (Pecari tajacu). Em razão dos valores estimados, sobretudo, para a K, essa característica pode ser incluída em um índice de seleção. Contudo, estudos com grupos mais representativos e criados em outras condições se faz oportuno.
Resumo:
Bio-molecular computing, 'computations performed by bio-molecules', is already challenging traditional approaches to computation both theoretically and technologically. Often placed within the wider context of ´bio-inspired' or 'natural' or even 'unconventional' computing, the study of natural and artificial molecular computations is adding to our understanding of biology, physical sciences and computer science well beyond the framework of existing design and implementation paradigms. In this introduction, We wish to outline the current scope of the field and assemble some basic arguments that, bio-molecular computation is of central importance to computer science, physical sciences and biology using HOL - Higher Order Logic. HOL is used as the computational tool in our R&D work. DNA was analyzed as a chemical computing engine, in our effort to develop novel formalisms to understand the molecular scale bio-chemical computing behavior using HOL. In our view, our focus is one of the pioneering efforts in this promising domain of nano-bio scale chemical information processing dynamics.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
The technologies are rapidly developing, but some of them present in the computers, as for instance their processing capacity, are reaching their physical limits. It is up to quantum computation offer solutions to these limitations and issues that may arise. In the field of information security, encryption is of paramount importance, being then the development of quantum methods instead of the classics, given the computational power offered by quantum computing. In the quantum world, the physical states are interrelated, thus occurring phenomenon called entanglement. This study presents both a theoretical essay on the merits of quantum mechanics, computing, information, cryptography and quantum entropy, and some simulations, implementing in C language the effects of entropy of entanglement of photons in a data transmission, using Von Neumann entropy and Tsallis entropy.
Resumo:
Pós-graduação em Engenharia Elétrica - FEIS
Resumo:
The physics of plasmas encompasses basic problems from the universe and has assured us of promises in diverse applications to be implemented in a wider range of scientific and engineering domains, linked to most of the evolved and evolving fundamental problems. Substantial part of this domain could be described by R–D mechanisms involving two or more species (reaction–diffusion mechanisms). These could further account for the simultaneous non-linear effects of heating, diffusion and other related losses. We mention here that in laboratory scale experiments, a suitable combination of these processes is of vital importance and very much decisive to investigate and compute the net behaviour of plasmas under consideration. Plasmas are being used in the revolution of information processing, so we considered in this technical note a simple framework to discuss and pave the way for better formalisms and Informatics, dealing with diverse domains of science and technologies. The challenging and fascinating aspects of plasma physics is that it requires a great deal of insight in formulating the relevant design problems, which in turn require ingenuity and flexibility in choosing a particular set of mathematical (and/or experimental) tools to implement them.