605 resultados para Interacoes hadron-hadron
Resumo:
Crossing the Franco-Swiss border, the Large Hadron Collider (LHC), designed to collide 7 TeV proton beams, is the world's largest and most powerful particle accelerator the operation of which was originally intended to commence in 2008. Unfortunately, due to an interconnect discontinuity in one of the main dipole circuit's 13 kA superconducting busbars, a catastrophic quench event occurred during initial magnet training, causing significant physical system damage. Furthermore, investigation into the cause found that such discontinuities were not only present in the circuit in question, but throughout the entire LHC. This prevented further magnet training and ultimately resulted in the maximum sustainable beam energy being limited to approximately half that of the design nominal, 3.5-4 TeV, for the first three years of operation (Run 1, 2009-2012) and a major consolidation campaign being scheduled for the first long shutdown (LS 1, 2012-2014). Throughout Run 1, a series of studies attempted to predict the amount of post-installation training quenches still required to qualify each circuit to nominal-energy current levels. With predictions in excess of 80 quenches (each having a recovery time of 8-12+ hours) just to achieve 6.5 TeV and close to 1000 quenches for 7 TeV, it was decided that for Run 2, all systems be at least qualified for 6.5 TeV operation. However, even with all interconnect discontinuities scheduled to be repaired during LS 1, numerous other concerns regarding circuit stability arose. In particular, observations of an erratic behaviour of magnet bypass diodes and the degradation of other potentially weak busbar sections, as well as observations of seemingly random millisecond spikes in beam losses, known as unidentified falling object (UFO) events, which, if persist at 6.5 TeV, may eventually deposit sufficient energy to quench adjacent magnets. In light of the above, the thesis hypothesis states that, even with the observed issues, the LHC main dipole circuits can safely support and sustain near-nominal proton beam energies of at least 6.5 TeV. Research into minimising the risk of magnet training led to the development and implementation of a new qualification method, capable of providing conclusive evidence that all aspects of all circuits, other than the magnets and their internal joints, can safely withstand a quench event at near-nominal current levels, allowing for magnet training to be carried out both systematically and without risk. This method has become known as the Copper Stabiliser Continuity Measurement (CSCM). Results were a success, with all circuits eventually being subject to a full current decay from 6.5 TeV equivalent current levels, with no measurable damage occurring. Research into UFO events led to the development of a numerical model capable of simulating typical UFO events, reproducing entire Run 1 measured event data sets and extrapolating to 6.5 TeV, predicting the likelihood of UFO-induced magnet quenches. Results provided interesting insights into the involved phenomena as well as confirming the possibility of UFO-induced magnet quenches. The model was also capable of predicting that such events, if left unaccounted for, are likely to be commonplace or not, resulting in significant long-term issues for 6.5+ TeV operation. Addressing the thesis hypothesis, the following written works detail the development and results of all CSCM qualification tests and subsequent magnet training as well as the development and simulation results of both 4 TeV and 6.5 TeV UFO event modelling. The thesis concludes, post-LS 1, with the LHC successfully sustaining 6.5 TeV proton beams, but with UFO events, as predicted, resulting in otherwise uninitiated magnet quenches and being at the forefront of system availability issues.
Resumo:
Using a peculiar version of the SU(3)(L) circle times U(1)(N) electroweak model, we investigate the production of doubly charged Higgs boson at the Large Hadron Collider. Our results include branching ratio calculations for the doubly charged Higgs and for one of the neutral scalar bosons of the model. (c) 2006 Elsevier B.V. All rights reserved.
Resumo:
The extreme sensitivity of the mass of the Higgs boson to quantum corrections from high mass states, makes it 'unnaturally' light in the standard model. This 'hierarchy problem' can be solved by symmetries, which predict new particles related, by the symmetry, to standard model fields. The Large Hadron Collider (LHC) can potentially discover these new particles, thereby finding the solution to the hierarchy problem. However, the dynamics of the Higgs boson is also sensitive to this new physics. We show that in many scenarios the Higgs can be a complementary and powerful probe of the hierarchy problem at the LHC and future colliders. If the top quark partners carry the color charge of the strong nuclear force, the production of Higgs pairs is affected. This effect is tightly correlated with single Higgs production, implying that only modest enhancements in di-Higgs production occur when the top partners are heavy. However, if the top partners are light, we show that di-Higgs production is a useful complementary probe to single Higgs production. We verify this result in the context of a simplified supersymmetric model. If the top partners do not carry color charge, their direct production is greatly reduced. Nevertheless, we show that such scenarios can be revealed through Higgs dynamics. We find that many color neutral frameworks leave observable traces in Higgs couplings, which, in some cases, may be the only way to probe these theories at the LHC. Some realizations of the color neutral framework also lead to exotic decays of the Higgs with displaced vertices. We show that these decays are so striking that the projected sensitivity for these searches, at hadron colliders, is comparable to that of searches for colored top partners. Taken together, these three case studies show the efficacy of the Higgs as a probe of naturalness.
Resumo:
In the first part of this thesis we search for beyond the Standard Model physics through the search for anomalous production of the Higgs boson using the razor kinematic variables. We search for anomalous Higgs boson production using proton-proton collisions at center of mass energy √s=8 TeV collected by the Compact Muon Solenoid experiment at the Large Hadron Collider corresponding to an integrated luminosity of 19.8 fb-1.
In the second part we present a novel method for using a quantum annealer to train a classifier to recognize events containing a Higgs boson decaying to two photons. We train that classifier using simulated proton-proton collisions at √s=8 TeV producing either a Standard Model Higgs boson decaying to two photons or a non-resonant Standard Model process that produces a two photon final state.
The production mechanisms of the Higgs boson are precisely predicted by the Standard Model based on its association with the mechanism of electroweak symmetry breaking. We measure the yield of Higgs bosons decaying to two photons in kinematic regions predicted to have very little contribution from a Standard Model Higgs boson and search for an excess of events, which would be evidence of either non-standard production or non-standard properties of the Higgs boson. We divide the events into disjoint categories based on kinematic properties and the presence of additional b-quarks produced in the collisions. In each of these disjoint categories, we use the razor kinematic variables to characterize events with topological configurations incompatible with typical configurations found from standard model production of the Higgs boson.
We observe an excess of events with di-photon invariant mass compatible with the Higgs boson mass and localized in a small region of the razor plane. We observe 5 events with a predicted background of 0.54 ± 0.28, which observation has a p-value of 10-3 and a local significance of 3.35σ. This background prediction comes from 0.48 predicted non-resonant background events and 0.07 predicted SM higgs boson events. We proceed to investigate the properties of this excess, finding that it provides a very compelling peak in the di-photon invariant mass distribution and is physically separated in the razor plane from predicted background. Using another method of measuring the background and significance of the excess, we find a 2.5σ deviation from the Standard Model hypothesis over a broader range of the razor plane.
In the second part of the thesis we transform the problem of training a classifier to distinguish events with a Higgs boson decaying to two photons from events with other sources of photon pairs into the Hamiltonian of a spin system, the ground state of which is the best classifier. We then use a quantum annealer to find the ground state of this Hamiltonian and train the classifier. We find that we are able to do this successfully in less than 400 annealing runs for a problem of median difficulty at the largest problem size considered. The networks trained in this manner exhibit good classification performance, competitive with the more complicated machine learning techniques, and are highly resistant to overtraining. We also find that the nature of the training gives access to additional solutions that can be used to improve the classification performance by up to 1.2% in some regions.
Resumo:
Dentre os metodos mais utilizados para determinacao do carbono da biomassa microbiana destacam-se: os de cloroformio-fumigacao-incubacao (CFI) e cloroformio-fumigacao-extracao (CFE). Trabalhos relatados na literatura tem comparado a eficiencia desses metodos em diversos locais. No entanto, para a regiao do cerrado nao existem informacoes a esse respeito. O objetivo deste trabalho foi avaliar a eficiencia dos metodos CFE e CFI na determinacao do carbono da biomassa microbiana do solo (CBMS) em areas de cerrado sob cultura anual (rotacao soja-milho) e pastagem consorciada (Andropogon gayanus e Stylosanthes guianensis) e sob tres fitofisionomias - Mata de Galeria, Campo Sujo e Cerradao. Amostras de solo coletadas em duas profundidades, 0 a 5 cm e 5 a 20 cm, foram analisadas em quatro epocas: agosto de 1998, janeiro a agosto de 1999 e janeiro de 2000. Nas areas cultivadas, os resultados obtidos com os metodos CFE e CFI foram semelhantes independentemente dos tratamentos e das epocas amostradas; as pastagens consorciadas apresentaram maiores teores de CBMS do que as areas sob culturas anuais. A integracao profundidades x metodos foi significatica. Nao houve diferencas entre a profundidade 0 a 5 cm quando se utilizou o metodo CFI, mas as diferencas obtidas com o metodo CFE foram significativas. Os metodos CFI e CFE apresentaram as mesmas tendencias nas areas ativas, independentemente dos tratamentos, profundidades ou epocas analisados; a Mata de Galeria apresentou niveis de CBMS superiores aos do Cerradao e do Campo Sujo. As interacoes profundidades x metodos e epocas x metodos foram significativas devido ao fato de que as diferencas nos teores do carbono da bimassa microbiana, nas profundidades e epocas amostradas, foram mais acentuadas com o metodo CFE. Os resultados indicaram que os metodos CFI e CFE foram apropriados para determinacao da CBMS em solos de Cerrado sob cultivo e sob vegetacao nativa.
Resumo:
In the modern society, communications and digital transactions are becoming the norm rather than the exception. As we allow networked computing devices into our every-day actions, we build a digital lifestyle where networks and devices enrich our interactions. However, as we move our information towards a connected digital environment, privacy becomes extremely important as most of our personal information can be found in the network. This is especially relevant as we design and adopt next generation networks that provide ubiquitous access to services and content, increasing the impact and pervasiveness of existing networks. The environments that provide widespread connectivity and services usually rely on network protocols that have few privacy considerations, compromising user privacy. The presented work focuses on the network aspects of privacy, considering how network protocols threaten user privacy, especially on next generation networks scenarios. We target the identifiers that are present in each network protocol and support its designed function. By studying how the network identifiers can compromise user privacy, we explore how these threats can stem from the identifier itself and from relationships established between several protocol identifiers. Following the study focused on identifiers, we show that privacy in the network can be explored along two dimensions: a vertical dimension that establishes privacy relationships across several layers and protocols, reaching the user, and a horizontal dimension that highlights the threats exposed by individual protocols, usually confined to a single layer. With these concepts, we outline an integrated perspective on privacy in the network, embracing both vertical and horizontal interactions of privacy. This approach enables the discussion of several mechanisms to address privacy threats on individual layers, leading to architectural instantiations focused on user privacy. We also show how the different dimensions of privacy can provide insight into the relationships that exist in a layered network stack, providing a potential path towards designing and implementing future privacy-aware network architectures.
Resumo:
Foram investigados os efeitos de tratamentos térmicos nas propriedades estruturais, magnéticas e de magnetotransporte eletrônico de fitas de Co10Cu90 rapidamente resfriadas (“melt-spun”) enfatizando o estudo de possíveis relações entre as interações magnéticas entre grãos, camadas e cristais presentes nestes materiais e a magnetoresistência. A análise combinada da evolução estrutural e da intensidade das interações entre os grãos magnéticos mostra claramente o papel de alguns parâmetros estruturais (tamanho e densidade de partículas, distância entre partículas) e da própria intensidade das interações entre as partículas nas propriedades de transporte eletrônico em presença de um campo magnético.
Resumo:
O caos e a incoerência nas interações conservativas de três ondas e a transição súbita para o caos na equação não linear de Klein Gordon são estudados. É analisada a influência da presença de caos sobre a incoerência no problema da interação de um tripleto de ondas quando um modelo de aproximação adiabática deixa de ser válido. É encontrado um limiar para o valor do descasamento do tripleto de ondas, abaixo do qual a coerência e o acoplamento entre as ondas é o comportamento dominante. Na equação não linear de Klein Gordon estudou-se a transição entre um regime de dinâmica modulacional para um de caos espaço temporal e foi encontrada uma curva crítica no plano amplitude-frequência que o divide em regiões onde só existe transição para o caos caso o valor de amplitude exceder um certo limiar.
Resumo:
Um dos problemas teóricos mais importantes da Física de Partículas de Altas Energias é a investigação de efeitos de alta densidade na Cromodinâmica Quântica (QCD), que é a teoria que descreve as interações fortes. Tais efeitos são importantes pois determinam os observáveis em colisõesde altas energias. Em processos hadrônicos de energia suficientemente alta, espera-se a formação de sistemas densos o suficiente para que efeitos não lineares de QCD passem a ser significativos na descrição e na unitarização da seção de choque. Na descrição de processos de espalhamento de altas energias, evidências experimentais indicam que os hádrons são constituídos por partículas puntuais, as quais chamamos de pártons. Os pártons carregam uma fração x do momentum total do hádron, e são de dois tipos, quarks e glúons. Na interação entre as partículas ocorre a troca de momentum, definida como Q2. A descrição perturbativa padrão para a evolução dinâmica das distribuições de quarks q(x, Q2) e glúons g(x, Q2), pode ser dada pelas equações de evolução DGLAP, e tem obtido sucesso na descrição dos resultados experimentais para as presentes energias. Na evolução DGLAP, são considerados apenas processos de emissão, como a emissão de um glúon por um quark, o decaimento de um glúon em um par de quarks ou em um par de glúons Estes processos de emissão tendem a aumentar a densidade de pártons na região de pequeno momentum, levando a um crescimento ilimitado das distribuições partônicas para x -+ O. Assim, é esperado que o crescimento da densidade de pártons leve a interação e recombinação destas partículas, dando origem a termos não lineares nas equações de evolução. O resultado seria um processo de saturação das distribuições de pártons na região de alta energia e pequena fração de momentum. Os efeitos que dão origem à redução do crescimento das distribuições de quarks e glúons em relação a evolução linear são chamados genericamente de efeitos de sombreamento. Um dos aspectos fenomenológicosinteressantes a ser investigado no regime cinemático abordado acima é o processo Drell-Yan de alta energia, o qual consiste em processos de espalhamento pp, pA e AA com a produção de pares de léptons. Com o advento dos novos aceleradores, novos resultados experimentais estarão disponíveis na literatura relacionados com este processo. Em nosso trabalho investigamos os efeitos das correções de unitariedade em processos pp, bem como os efeitos devido a presença do meio nuclear em colisõespA e AA, nas distribuições de quarks e glúons, para a descrição da seção de choque diferencial para o processo Drell-Yan em colisõespp, pA e AA, para energias existentes nos novos aceleradores RHIC (Relativistic Heavy Ion Collider) e LHC (Large Ion Collider). Os efeitos de alta densidade são baseados no formalismo de Glauber-Mueller. Os resultados aqui apresentados mostram que os efeitos de alta densidade nas distribuições partônicas são importantes para altas energias, pois a descrição da seção de choque para o processo Drell-Yan, quando os efeitos de alta densidade são considerados, apresenta significativas diferenças da descrição onde não considera-se tais efeitos.
Resumo:
Neste trabalho estudamos modelos teóricos que descrevem sistemas eletrônicos fortemente correlacionados, em especial o modelo t-J, e suas aplicações a compostos de óxidos de cobre, notadamente os compostos que apresentam supercondutividade de alta temperatura crítica e o composto Sr2CuO2Cl2. No primeiro capítulo do trabalho, fazemos uma exposição de três modelos que envolvem o tratamento das interações elétron-elétron, que são os modelos de Hubbard de uma banda, o modelo de Heisenberg e o modelo t-J. Na dedução deste último fazemos uma expansão canônica do hamiltoniano de Hubbard, no limite de acoplamento forte, levando-nos a obter um novo hamiltoniano que pode ser utilizado para descrever um sistema antiferromagnético bidimensional na presen- ça de lacunas, que é exatamente o que caracteriza os compostos supercondutores de alta temperatura crítica na sua fase de baixa dopagem.Após termos obtido o hamiltoniano que descreve o modelo t-J, aplicamos à este uma descrição de polarons de spin, numa representação de holons, que são férmions sem spin, e spinons, que são bósons que carregam somente os graus de liberdade de spin. Utilizando uma função de Green para descrever a propagação do polaron pela rede, obtemos uma equação para a sua autoenergia somando uma série de diagramas de Feynman, sendo que para este cálculo utilizamos a aproxima ção de Born autoconsistente[1]. Do ponto de vista numérico demonstramos que a equação integral de Dyson resultante do tratamento anterior não requer um procedimento iterativo para sua solução, e com isto conseguimos trabalhar com sistemas com grande número de partículas. Os resultados mostram, como um aspecto novo, que o tempo de vida média do holon tem um valor bastante grande no ponto (π,0 ) da rede recíproca, perto da singularidade de Van Hove mencionada na literatura[2]. Este aspecto, e suas implicações, é amplamente discutido neste capítulo. No capítulo 3 estudamos o modelo estendido t-t'-J, com tunelamento à segundos vizinhos e a incorporação dos termos de três sítios[3]. Fazemos a mesma formulação do capítulo anterior, e discutimos as aplicações dos nossos resultados ao óxido mencionado anteriormente. Finalmente, no último capítulo apresentamos uma aplicação original do modelo t-J à uma rede retangular, levemente distorcida, e demonstramos que os resultados do capítulo 3 são reproduzidos sem necessidade de introduzir termos de tunelamento adicionais no hamiltoniano. Esta aplicação pode se tornar relevante para o estudo das fases de tiras encontradas recentemente nesses materiais de óxidos de cobre.
Resumo:
Recentemente, tem sido questionada a validade do teorema de Migdal nos fuieretos dopados supercondutores. Motivados por esse problema, realizamos nesta dissertação uma revisão das propriedades físicas destes novos e notáveis materiais: os fulerenos e outros representantes desta família de compostos orgânicos que possuem estrutura geométrica de gaiola fechada. Em primeiro lugar abordamos, ainda que de maneira sucinta, alguns fundamentos da teoria microscópica BCS (Bardeen, Cooper e Schrieffer, 1961) da supercondutividade, tais como o problema da instabilidade do líquido de Fermi, a formação de pares de Cooper, o método da transformação canônica para demonstrar o aparecimento da interação efetiva atrativa entre os elétrons do par, as equações de Gor'kov demonstrando o surgimento do gap supercondutor, e a expressão BCS da temperatura crítica no limite de acoplamento fraco. Após, revisamos o trabalho realizado por Grimaldi, Cappelluti e Pietronero (1995), sobre a supercondutividade não adiabática nos fuieretos dopados, no qual são feitas correções de vértice para a interação elétron-fônon, usando o método perturbativo. Naquele trabalho eles utilizam um modelo de fônons de Einstein com uma única freqüência para caracterizar a função espectral de Eliashberg, necessária para obter tais correções de vértice Nossa proposta neste trabalho é generalizar este modelo por um constituído de várias Lorentzianas truncadas, centradas nas freqüências dos principais modos de vibração da rede cristalina: os intermoleculares, os ópticos e os intramoleculares. Encontramos como resultado deste estudo que as correções de vértice, com contribuição multifonônica, introduzem modificações substancias como um aumento da temperatura crítica e variação no coeficiente isotópico, dando resultados mais próximos dos obtidos experimentalmente, em contraste daqueles obtidos na teoria de Migdal-Eliashberg, sem correções de vértice.
Resumo:
Neste trabalho de tese investigamos o papel de dinâmica perturbativa e não-perturbativa da Cromodinâmica Quântica, a teoria das interações fortes, em processos de produção de quarks pesados e de quarkonium-estados ligados de um par de quarks pesados. Um aspecto importante na produção de quarks pesados consiste no tratamento de ordens mais altas em QCD perturbativa, que abordamos por meio de elementos de matriz QCD em segunda ordem dominante (NLO) e através de um gerador de eventos Monte Carlo, mais útil fenomenologicamente, onde a produção perturbativa de pares Q Q e obtida utilizando elementos de matriz em ordem dominante e a aproximação de chuveiros partônicos de processos em ordens mais altas. Os processos suaves formando estados ligados de quarkonium são descritos em termos do modelo de evaporação de cor (CEM), ou alternativamente através do modelo de interações suaves de cor (SCI) e do modelo da lei das áreas generalizado (GAL). Neste trabalho, calculamos as distribuições em xF e p? para o J= e 0 em hadroprodução em alvo xo e no colisionador p p do Tevatron. Outros observáveis como a seção de choque total para J= , 0 e charme aberto tamb em são reproduzidos. Além disso, extrapolamos os modelos para descrever a produção de J= e no futuro colisionador LHC, onde as taxas de produção de J= estão at e uma ordem de magnitude acima de outra predição da literatura, o qual pode implicar em J= ser um ru do não negligenciável para estudos de violação da simetria CP no LHC. Além disso, com o objetivo de descrever as taxas de produção relativas entre os vários estados de charmonium, desenvolvemos um modelo para o mapeamento do espectro contínuo de massas do par c c produzido perturbativamente, nas ressonâncias de charmonium, onde introduzimos uma correlação entre a massa invariante do par produzido perturbativamente e a massa física do estado de charmonium. Outra abordagem importante ao estudo dos aspectos perturbativos e não-perturbativos da QCD na produção de quarks pesados e o formalismo de fatorização k?, o qual investigamos em processos de fotoprodução de charme e bottom, com ênfase em resultados de um modelo de saturação. Efeitos de evolução DGLAP tamb em são estudados, considerando a derivada da distribuição de glíuons. Analisamos em detalhe seções de choque totais e distribuições em pT , mostrando as regiões de validade de cada descrição. Através do estudo de vários aspectos perturbativos e não-perturbativos da QCD, este trabalho de tese contribui para um melhor entendimento da conexão entre essas duas dinâmicas.
Resumo:
A representação de Fock-Tani é um formalismo de teoria de campos para tratar problemas envolvendo simultaneamente partículas compostas e seus constituintes. O formalismo foi originalmente desenvolvido para tratar problemas de física atômica e mais tarde estendido para problemas da física hadrônica. Nesta dissertação, inicialmente apresentamos uma revisão da Cromo dinâmica Quântica e dos modelos de quarks e de glúons constituintes. Revisamos também a representação de Fock-Tani para mésons e buscamos estendê-Ia para estados exóticos, mais precisamente para glueballs. Neste formalismo uma mudança de representação é implementada através de um operador unitário, tal que estados de glueballs no espaço de Fock, compostos por um par glúon-glúon, sejam descritos em termos de operadores de campo de glueballs elementares em um espaço de Hilbert estendido. A aplicação do operador unitário a um Hamiltoniano microscópico de gluons leva a um Hamiltoniano efetivo que descreve todos os possíveis processos envolvendo glúons e glueballs. Esse Hamiltoniano efetivo é utilizado para estudar as interações entre glueballs à baixa energia em um modelo de glúons constituintes, que interagem através da troca de um glúon virtual e são confinados por um potencial fenomenológico O méson J?C = 0++ pode ser descrito de duas formas completamente diferentes. Na primeira forma ele é descrito da maneira usual como sendo composto por um par qq. Na segunda abordagem este mesmo méson é descrito como sendo constituido por dois glúons (glueball). Também estudamos nesta dissertação o méson 2++ no mesmo contexto. Os resultados obtidos nesta dissertação indicam que o méson qq precisaria ter um raio quase igual ao dobro do respectivo raio do glueball para que suas seções de choque de espalhamento elástico fossem equivalentes. As diferenças acentuadas encontradas nas seções de choque de espalhamento elástico méson-méson e glueball-glueball, podem ser interpretadas como uma nova assinatura de glueballs.
Resumo:
Estudo retrospectivo avaliando alterações laboratoriais hepáticas e potenciais interações medicamentosas em pacientes tratados para onicomicose. Foram avaliados 202 pacientes, sendo 82% do sexo feminino. em 273 exames de enzimas hepáticas, houve alterações em apenas 6%. Potenciais interações medicamentosas foram identificadas em 28% dos pacientes para imidazólicos e 14% para terbinafina. O risco de interações potenciais aumentou com a idade do paciente e o uso de múltiplas medicações.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)