998 resultados para Equações de Helmholtz
Resumo:
The Pierre Auger Collaboration has reported. evidence for anisotropy in the distribution of arrival directions of the cosmic rays with energies E > E(th) = 5.5 x 10(19) eV. These show a correlation with the distribution of nearby extragalactic objects, including an apparent excess around the direction of Centaurus A. If the particles responsible for these excesses at E > E(th) are heavy nuclei with charge Z, the proton component of the sources should lead to excesses in the same regions at energies E/Z. We here report the lack of anisotropies in these directions at energies above E(th)/Z (for illustrative values of Z = 6, 13, 26). If the anisotropies above E(th) are due to nuclei with charge Z, and under reasonable assumptions about the acceleration process, these observations imply stringent constraints on the allowed proton fraction at the lower energies.
Resumo:
We present the results of searches for dipolar-type anisotropies in different energy ranges above 2.5 x 10(17) eV with the surface detector array of the Pierre Auger Observatory, reporting on both the phase and the amplitude measurements of the first harmonic modulation in the right-ascension distribution. Upper limits on the amplitudes are obtained, which provide the most stringent bounds at present, being below 2% at 99% C.L. for EeV energies. We also compare our results to those of previous experiments as well as with some theoretical expectations. (C) 2011 Elsevier B.V. All rights reserved.
Resumo:
Since data-taking began in January 2004, the Pierre Auger Observatory has been recording the count rates of low energy secondary cosmic ray particles for the self-calibration of the ground detectors of its surface detector array. After correcting for atmospheric effects, modulations of galactic cosmic rays due to solar activity and transient events are observed. Temporal variations related with the activity of the heliosphere can be determined with high accuracy due to the high total count rates. In this study, the available data are presented together with an analysis focused on the observation of Forbush decreases, where a strong correlation with neutron monitor data is found.
Resumo:
The Pierre Auger Observatory is a detector for ultra-high energy cosmic rays. It consists of a surface array to measure secondary particles at ground level and a fluorescence detector to measure the development of air showers in the atmosphere above the array. The ""hybrid"" detection mode combines the information from the two subsystems. We describe the determination of the hybrid exposure for events observed by the fluorescence telescopes in coincidence with at least one water-Cherenkov detector of the surface array. A detailed knowledge of the time dependence of the detection operations is crucial for an accurate evaluation of the exposure. We discuss the relevance of monitoring data collected during operations, such as the status of the fluorescence detector, background light and atmospheric conditions, that are used in both simulation and reconstruction. (C) 2010 Elsevier B.V. All rights reserved.
Resumo:
Data collected by the Pierre Auger Observatory through 31 August 2007 showed evidence for anisotropy in the arrival directions of cosmic rays above the Greisen-Zatsepin-Kuz`min energy threshold, 6 x 10(19) eV. The anisotropy was measured by the fraction of arrival directions that are less than 3.1 degrees from the position of an active galactic nucleus within 75 Mpc (using the Veron-Cetty and Veron 12th catalog). An updated measurement of this fraction is reported here using the arrival directions of cosmic rays recorded above the same energy threshold through 31 December 2009. The number of arrival directions has increased from 27 to 69, allowing a more precise measurement. The correlating fraction is (38(-6)(+7))%, compared with 21% expected for isotropic cosmic rays. This is down from the early estimate of (69-(+11)(13))%. The enlarged set of arrival directions is examined also in relation to other populations of nearby extragalactic objects: galaxies in the 2 Microns All Sky Survey and active galactic nuclei detected in hard X-rays by the Swift Burst Alert Telescope. A celestial region around the position of the radiogalaxy Cen A has the largest excess of arrival directions relative to isotropic expectations. The 2-point autocorrelation function is shown for the enlarged set of arrival directions and compared to the isotropic expectation. (C) 2010 Elsevier B.V. All rights reserved.
Resumo:
The Pierre Auger Observatory is a hybrid detector for ultra-high energy cosmic rays. It combines a surface array to measure secondary particles at ground level together with a fluorescence detector to measure the development of air showers in the atmosphere above the array. The fluorescence detector comprises 24 large telescopes specialized for measuring the nitrogen fluorescence caused by charged particles of cosmic ray air showers. In this paper we describe the components of the fluorescence detector including its optical system, the design of the camera, the electronics, and the systems for relative and absolute calibration. We also discuss the operation and the monitoring of the detector. Finally, we evaluate the detector performance and precision of shower reconstructions. (C) 2010 Elsevier B.V All rights reserved.
Measurement of the energy spectrum of cosmic rays above 10(18) eV using the Pierre Auger Observatory
Resumo:
We report a measurement of the flux of cosmic rays with unprecedented precision and Statistics using the Pierre Auger Observatory Based on fluorescence observations in coincidence with at least one Surface detector we derive a spectrum for energies above 10(18) eV We also update the previously published energy spectrum obtained with the surface detector array The two spectra are combined addressing the systematic uncertainties and, in particular. the influence of the energy resolution on the spectral shape The spectrum can be described by a broken power law E(-gamma) with index gamma = 3 3 below the ankle which is measured at log(10)(E(ankle)/eV) = 18 6 Above the ankle the spectrum is described by a power law with index 2 6 followed by a flux suppression, above about log(10)(E/eV) = 19 5, detected with high statistical significance (C) 2010 Elsevier B V All rights reserved
Resumo:
The air fluorescence detector of the Pierre Auger Observatory is designed to perforin calorimetric measurements of extensive air showers created by Cosmic rays of above 10(18) eV. To correct these measurements for the effects introduced by atmospheric fluctuations, the Observatory contains a group Of monitoring instruments to record atmospheric conditions across the detector site, ail area exceeding 3000 km(2). The atmospheric data are used extensively in the reconstruction of air showers, and are particularly important for the correct determination of shower energies and the depths of shower maxima. This paper contains a summary of the molecular and aerosol conditions measured at the Pierre Auger Observatory since the start of regular operations in 2004, and includes a discussion of the impact of these measurements oil air shower reconstructions. Between 10(18) and 10(20) eV, the systematic Uncertainties due to all atmospheric effects increase from 4% to 8% in measurements of shower energy, and 4 g cm(-2) to 8 g cm(-2) in measurements of the shower maximum. (C) 2010 Elsevier B.V. All rights reserved.
Resumo:
We present an efficient numerical methodology for the 31) computation of incompressible multi-phase flows described by conservative phase-field models We focus here on the case of density matched fluids with different viscosity (Model H) The numerical method employs adaptive mesh refinements (AMR) in concert with an efficient semi-implicit time discretization strategy and a linear, multi-level multigrid to relax high order stability constraints and to capture the flow`s disparate scales at optimal cost. Only five linear solvers are needed per time-step. Moreover, all the adaptive methodology is constructed from scratch to allow a systematic investigation of the key aspects of AMR in a conservative, phase-field setting. We validate the method and demonstrate its capabilities and efficacy with important examples of drop deformation, Kelvin-Helmholtz instability, and flow-induced drop coalescence (C) 2010 Elsevier Inc. All rights reserved
Resumo:
Este artigo apresenta uma pesquisa quantitativa realizada com 462 alunos de graduação em administração, na região da grande São Paulo, sobre a percepção deles como consumidores, avaliando-se o comportamento inovador em relação à existência de recompensa para empresas que apresentam responsabilidade socioambiental. Partiu-se de um levantamento bibliográfico nas publicações da área e de um focus group com especialistas e gestores da área e em seguida se procedeu à elaboração de um do tipo Likert com 28 assertivas. Para a análise de dados foi empregado o método de modelagem de equações estruturais, buscando-se estabelecer uma avaliação causal entre dois constructos importância e reconhecimento por parte de consumidores das empresas socioambientalmente corretas. Foram mensurados também cinco itens sociodemográficos dos participantes. Como resultado obteve-se um valor do grau de aderência entre os dois constructos de 0,86, indicando haver tal relação causal forte. Assim, este estudo permitiu comprovar a existência de inovação no comportamento do consumidor, que passa a recompensar, na decisão de compra, empresas socioambientalmente responsáveis.
Resumo:
As demandas do cenário competitivo do século XXI obrigam empresas a criar estratégias de marketing que lhes proporcionem vantagens competitivas para atender ao mercado. A educação não tem se mantido alheia a estas mudanças. Em alguns estudos realizados, autores entendem que a mensuração da qualidade do serviço depende das percepções dos consumidores e são relativas às suas expectativas. Recentemente foi realizado estudo exploratório em universidades privadas de São Paulo, através de testes estatísticos multivariados dividido em etapas: análise fatorial exploratória, análise fatorial confirmatória e modelagem estrutural. O estudo validou a escala para mensuração dos construtos e verificou a existência de relação causal entre eles. Assim sendo, o interesse na reaplicação do modelo levou a pesquisar as Instituições de Ensino Superior, IES, Municipais do Grande ABC. O estudo visou verificar a existência de relação causal entre os construtos endógenos e exógenos e identificar a percepção do papel do professor na qualidade dos serviços recebidos. Através do Modelo de Equações Estruturais identificou-se algumas diferenças entre IES privadas e públicas, que revelam a qualidade do serviço recebido.
Resumo:
Dissertação apresentada ao Programa de Pós-graduação em Administração - Mestrado da Universidade Municipal de São Caetano do Sul.
Resumo:
Este trabalho apresenta um estudo de fluxo de água em barragens de terra, em regimes permanente e transiente, com a utilização do Método de Elementos Finitos. No estudo de fluxo em regime permanente duas formas de abordar o problema são apresentadas e comparadas. A primeira considera, para a discretização da malha de elementos finitos, somente a região saturada, de maneira que a linha freática é obtida através de ajustes desta malha de elementos finitos. A segunda considera toda a região saturada-insaturada, sendo discretizado todo o domínio físico da barragem. A malha de elementos finitos não é modificada ao longo das iterações e a linha freática é obtida por interpolação dentro dos elementos, em função dos valores nodais do potencial de pressões. O desenvolvimento teórico das equações utilizadas para as duas formas de abardagem é apresentado, mostrando onde elas diferem entre si. No estudo de fluxo em regime transiente é utilizado apenas o esquema de malha fixa de elementos finitos.
Resumo:
Este trabalho tem por objetivo desenvolver e implementar, computacionalmente, procedimentos numéricos eficientes, aplicados à determinacão do diagrama momento-curvatura, correspondentes à: -uma seção tipica, em vigas de concreto armado, submetida à carga monotônica ou cíclica de curta duração; - um ponto genérico da superficie média em placas de concreto armado, submetidas à carga monotônica de curta duração. Ainda à luz dos resultados obtidos, visa também propôr um modelo simplificado em termos de resultantes de tensões e deformações generalizadas. Inicialmente, é descrito um modelo laminar para vigas, no qual a carga é aplicada de forma incremental sendo que para cada etapa, as equaçães de equilibrio não-lineares são resolvidas de maneira iterativa. Como consequência é proposta uma relação momento-curvatura em termos de resultantes. A fim de verificar a validade e aplicabilidade dos métodos e dos algorítmos estudados e comparar-se os resultados com dados experimentais e respostas obtidas por outros pesquisadores, é apresentada uma série de exemplos numéricos. A continuação, é aplicado o procedimento anterior para modelos de laje, livres de solicitações de membrana. Finalmente através de um estudo paramétrico dos diversos fatores que afetam o diagrama momento-curvatura, propõe-se uma relação simplificada.
Resumo:
O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.