11 resultados para LHC Ê

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho trata do estudo, por meio de simulação de Monte Carlo, de correlações entre variáveis cinemáticas nas topologias de difração simples e de dupla troca de pomeron com vista a delimitar e estudar o espaço de fase referente às topologias citadas, em especial no que se refere á produção inclusiva de dijatos no contexto do experimento CMS/LHC. Será também apresentada uma análise da produção, por difração simples, de dijatos inclusivos a energia no centro de massa √s = 14 TeV (também por simulação de Monte Carlo), na qual estabelecemos um procedimento, a ser usado com dados, para a observação desse tipo de processo. Ainda analisamos a influência de diversos valores da probabilidade de sobrevivência do intervalo de rapidez, [|S|], nos resultados, de forma que com 10 pb -1 de dados acumulados, uma simples observação da produção de dijatos difrativos inclusivos, pelo método proposto, pode vir a excluir valores muito pequenos de [|S|].

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho estudamos as características das distribuições da lacuna de rapidez em amostras de eventos de minimum bias de colisões pp a ps=7 TeV no CMS/LHC. Tais eventos são constituídos por processos difrativos, além de processos de QCD mole. São investigados o tamanho e a localização das lacunas, assim como as correlações entre as distribuições obtidas a partir dos objetos reconstruídos no detector e as distribuições obtidas a partir das partículas geradas via simulação Monte Carlo. Uma boa compreensão dessas distribuições pode, eventualmente, possibilitar a caracterização de eventos difrativos nos dados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O escopo desse trabalho é a observação de dijatos de difração simples em colisões pp com ps = 7 TeV, durante os primeiros períodos de aquisição de dados do experimento CMS/LHC. A técnica utilizada foi a medida da multiplicidade no calorímetro HF. Os dados foram analisados para diferentes períodos de aquisição de dados do ano de 2010, com ∫ Ldt ~_ 3,2 pb-1. Comparamos os dados observados com o Monte Carlo simulado com efeito de empilhamento e sem esse efeito.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Compact Muon Solenoid (CMS) é um dos principais detectores instalados no LHC que possibilita o estudo de diferentes aspectos da Física, indo do Modelo Padrão à matéria escura. Esse detector de propósito geral, foi construído para ser capaz de medir múons com uma grande precisão e todos os seus subdetectores foram construídos com uma alta granularidade, tornando possível identificar e caracterizar as propriedades cinemáticas das partículas finais da colisão. O algoritmo de reconstrução de eventos inclui a identificação de jatos, ou seja, é possível identificar a assinatura da produção de pártons na colisão e a medida de seções de choque da produção de muitos jatos é um dos métodos para se explorar as contribuições da Cromodinâmica Quântica (Quantum Chromodynamics - QCD) perturbativa, permitindo avaliar as previsões implementadas nas simulações de eventos. Tendo em vista a caracterização de processos relacionados com a QCD em colisões de próton-próton a uma energia do centro de massa de 7 TeV, é apresentada a medida da seção de choque da produção inclusiva de multijatos no CMS. Para realizar essa medida foram utilizados dados reais coletados em 2010, onde não se apresentava muitas colisões por cruzamento de pacote, com uma luminosidade integrada de L = 2,869 pb-1 e utilizando jatos que estão em quase todo o espaço de fase acessível em pseudorapidez |n|≤ 4,8 e momentum transverso pT ≥ 30 GeV/ c2. Desse resultado foram removidos os efeitos de detecção comparado com predições simuladas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresenta-se neste trabalho um estudo sobre o impacto do empilhamento de eventos (pile-up), nas distribuições das variáveis comumente utilizadas para identificar eventos difrativos, na topologia de difração dura simples produzindo dijatos, nas condições do CMS para baixa luminosidade (2 x 1033 cm -2 s-1). O cenário de baixa luminosidade citado acima equivale aproximadamente a 5 eventos de pile-up em média por cruzamento de pacotes. Para simular o sinal, difrativos (com e sem pile-up), usamos o gerador POMWIG (1). Para os eventos não-difrativos (com e sem pile-up), utilizamos o gerador PYTHIA (2),bem como para a produção dos eventos de pile-up (eventos simulados utilizando eventos de minimum bias).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo sobre a produção de dijatos exclusivos em interações pp, do tipo pp → p "+" dijatos "+" p, onde os prótons desta interação permanecem intactos, e o símbolo "+" indica uma lacuna na pseudorapidez, uma região com ausência de atividade hadrônica entre os prótons espalhados e o sistema central de dijatos; este processo é conhecido como produção central exclusiva. A análise utiliza uma amostra de dados que corresponde a uma luminosidade efetiva de 24;48 pb-1 coletados pelo experimento Compact Muon Solenoid (CMS) no Large Hadron Collider (LHC), no ano de 2010, com energia de centro de massa √s = 7 TeV. Este canal possui uma assinatura experimental única, caracterizada pelos prótons espalhados na região frontal, ou a baixos ângulos e duas grandes lacunas opostas. O processo da produção central exclusiva é útil para o entendimento das interações no contexto da QCD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresentamos um estudo preliminar da produção difrativa de mésons utilizando dados obtidos da colisão próton-próton, a energias de centro de massa de 7 TeV, com o experimento CMS-LHC. O trabalho inclui o desenvolvimento do algoritmo de reconstrução dos mésons D* através do canal de decaimento D*->D0 + pion (lento) ->K+pion, a medida da eficiência de detecção e reconstrução, e uma análise do comportamento de variáveis cinemáticas na produção difrativa dessas partículas, particularmente, das lacunas de rapidez. Para isso, foi utilizada uma luminosidade integrada de 3,171pb^(-1) de dados coletados no ano de 2010. As análises com os dados experimentais foram comparadas com os resultados obtidos com geradores de Monte Carlo PYTHIA6, PYTHIA8 e POMPYT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma proposta para permitir o uso compartilhado dos recursos computacionais utilizados em um cluster de forma a atender simultaneamente aos quatro experimentos do CERN. A abordagem adotada utiliza o conceito de contratos, onde os requisitos e restrições de cada experimento são descritos em perfis, e uma política de alocação de recursos é definida para manter a utilização dos recursos de forma a atender aos perfis. Propomos um modelo de arquitetura para gerenciar o uso compartilhado de um cluster pelas quatro Organizações Virtuais do LHC. Este modelo de arquitetura é composto de elementos comuns a um cluster típico da Tier-2, acrescidos de funcionalidades para controlar a admissão de novos jobs de todas as Organizações Virtuais do LHC. Este modelo monitora a utilização de recursos do cluster por cada OV, aloca recursos para cada job de acordo com uma política estabelecida para o cluster de forma a procurar respeitar os requisitos de cada uma delas. Definimos um algoritmo para o escalonamento de jobs, que utiliza mecanismos de preempção para controlar a alocação de nós do cluster dependendo o uso corrente e acumulado de recursos por cada OV. Este algoritmo é executado em um dos elementos da arquitetura batizado de broker, dado que o mesmo intermedeia a chegada de novos jobs e a alocação dos nós do cluster, e tem com objetivo manter o controle dos contratos de cada OV. A simulação da arquitetura proposta foi feita no simulador de grades GridSim e os resultados obtidos foram avaliados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação apresento as atividades que foram desenvolvidas durante o período de mestrado, que teve como objetivo o desenvolvimento da Técnica de Análise de dados através do Método de Elemento de Matriz (ME) para procura do Bóson de Higgs no experimento CMS. A proposta foi utilizar uma técnica de análise de dados relativamente nova, conhecida como Método do Elemento de Matriz (ME). Esta técnica foi desenvolvida e utilizada recentemente para aplicação na física do quark top nos experimentos D0 e CDF do Tevatron (FERMILAB). Entretanto, ainda não existem estudos envolvendo a aplicação da mesma para a física do Higgs no LHC. O método de ME foi aplicado na procura do Higgs no canal de decaimento H → W+ W- →+ν-ν, qual os estudos atuais apontam como sendo um dos canais com maior potencial de descoberta, principalmente nesta fase inicial em que a estatística ainda será muito limitada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresenta-se neste trabalho um estudo da produção de eventos de dijatos com alto momentum transverso separados por uma lacuna de rapidez, na topologia de jato+lacuna+jato, nos primeiro período de coleta de dados do CMS a √s = 7 TeV, isto é, para baixa luminosidade (1034cm-2s-1). A escala dura do evento é apresentada na forma dos dois jatos e da lacuna de rapidez no estado final. No contexto de BFKL, uma escada de glúons é trocada no canal t do espalhamento partônico. O processo acima foi simulado com o gerador HARDCOL (1), onde é implementado o cálculo de BFKL até ordem dominante de logaritmo ln s. As amostras foram simuladas e reconstruídas pelo software do CMS. Como evento de fundo dominante, temos a combinação de um evento de QCD com eventos de empilhamento na mesma colisão de feixe no LHC, onde observamos o excesso de dados sobre os eventos de fundo. Através do estudo dos jatos e da baixa atividade na região da lacuna, mostra-se a possibilidade de se observar os eventos com lacuna de rapidez a √s = 7 TeV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresenta-se neste trabalho um estudo sobre a largura de decaimento total do bóson de Higgs através do canal H→ ZZ → (4e, 4, 2e2). Segundo o Modelo Padrão da Física de Partículas Elementares, um bóson de Higgs com massa de 126 GeV deve ter uma largura de decaimento total ΓH = 4.15 MeV, muito abaixo da resoluções dos experimentos instalados no LHC. Isto impede uma medida direta sobre os eventos da ressonância. Recentemente foi proposto limitar ΓH a partir da relação entre a taxa de eventos observados na região da ressonância e na região off-shell. Utilizando o pacote de análise desenvolvido pela colaboração CMS obteve-se um limite de ΓH < 31.46(12.82) MeV em 95(68.3)% CL combinando os dados coletados pelo LHC em colisões pp em √s = 7 TeV (5.1fb-1) e em √s = 8 TeV (19.7fb -1).