957 resultados para Beyond Standard Model


Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this thesis we build a novel analysis framework to perform the direct extraction of all possible effective Higgs boson couplings to the neutral electroweak gauge bosons in the H → ZZ(*) → 4l channel also referred to as the golden channel. We use analytic expressions of the full decay differential cross sections for the H → VV' → 4l process, and the dominant irreducible standard model qq ̄ → 4l background where 4l = 2e2μ,4e,4μ. Detector effects are included through an explicit convolution of these analytic expressions with transfer functions that model the detector responses as well as acceptance and efficiency effects. Using the full set of decay observables, we construct an unbinned 8-dimensional detector level likelihood function which is con- tinuous in the effective couplings, and includes systematics. All potential anomalous couplings of HVV' where V = Z,γ are considered, allowing for general CP even/odd admixtures and any possible phases. We measure the CP-odd mixing between the tree-level HZZ coupling and higher order CP-odd couplings to be compatible with zero, and in the range [−0.40, 0.43], and the mixing between HZZ tree-level coupling and higher order CP -even coupling to be in the ranges [−0.66, −0.57] ∪ [−0.15, 1.00]; namely compatible with a standard model Higgs. We discuss the expected precision in determining the various HVV' couplings in future LHC runs. A powerful and at first glance surprising prediction of the analysis is that with 100-400 fb-1, the golden channel will be able to start probing the couplings of the Higgs boson to diphotons in the 4l channel. We discuss the implications and further optimization of the methods for the next LHC runs.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La actividad aseguradora supone la transferencia de riesgos del asegurado al asegurador. El asegurador se compromete al pago de una prestación si el riesgo se realiza. Se produce un cambio en el ciclo productivo. El asegurador vende una cobertura sin conocer el momento y el coste exacto de dicha cobertura. Esta particularidad de la actividad aseguradora explica la necesidad para una entidad aseguradora de ser solvente en cada momento y ante cualquier imprevisto. Por ello, la solvencia de las entidades aseguradoras es un aspecto que se ha ido recogiendo en las distintas normativas que han regulado la actividad aseguradora y al que se ha ido dando cada vez más importancia. Actualmente la legislación vigente en materia de solvencia de las aseguradoras esta regulada por la directiva europea Solvencia I. Esta directiva establece dos conceptos para garantizar la solvencia: las provisiones técnicas y el margen de solvencia. Las provisiones técnicas son las calculadas para garantizar la solvencia estática de la compañía, es decir aquella que hace frente, en un instante temporal determinado, a los compromisos asumidos por la entidad. El margen de solvencia se destina a cubrir la solvencia dinámica, aquella que hace referencia a eventos futuros que puedan afectar la capacidad del asegurador. Sin embargo en una corriente de gestión global del riesgo en la que el sector bancario ya se había adelantado al sector asegurador con la normativa Basilea II, se decidió iniciar un proyecto europeo de reforma de Solvencia I y en noviembre del 2009 se adoptó la directiva 2009/138/CE del parlamento europeo y del consejo, sobre el seguro de vida, el acceso a la actividad de seguro y de reaseguro y su ejercicio mas conocida como Solvencia II. Esta directiva supone un profundo cambio en las reglas actuales de solvencia para las entidades aseguradoras. Este cambio persigue el objetivo de establecer un marco regulador común a nivel europeo que sea más adaptado al perfil de riesgo de cada entidad aseguradora. Esta nueva directiva define dos niveles distintos de capital: el SCR (requerimiento estándar de capital de solvencia) y el MCR (requerimiento mínimo de capital). Para el calculo del SCR se ha establecido que el asegurador tendrá la libertad de elegir entre dos modelos. Un modelo estándar propuesto por la Autoridad Europea de Seguros y Pensiones de Jubilación (EIOPA por sus siglas en inglés), que permitirá un calculo simple, y un modelo interno desarrollado por la propia entidad que deberá ser aprobado por las autoridades competentes. También se contempla la posibilidad de utilizar un modelo mixto que combine ambos, el estándar y el interno. Para el desarrollo del modelo estándar se han realizado una serie de estudios de impacto cuantitativos (QIS). El último estudio (QIS 5) ha sido el que ha planteado de forma más precisa el cálculo del SCR. Plantea unos shocks que se deberán de aplicar al balance de la entidad con el objetivo de estresarlo, y en base a los resultados obtenidos constituir el SCR. El objetivo de este trabajo es realizar una síntesis de las especificaciones técnicas del QIS5 para los seguros de vida y realizar una aplicación práctica para un seguro de vida mixto puro. En la aplicación práctica se determinarán los flujos de caja asociados a este producto para calcular su mejor estimación (Best estimate). Posteriormente se determinará el SCR aplicando los shocks para los riesgos de mortalidad, rescates y gastos. Por último, calcularemos el margen de riesgo asociado al SCR. Terminaremos el presente TFG con unas conclusiones, la bibliografía empleada así como un anexo con las tablas empleadas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

[ES] La entrada en vigor del proyecto de Solvencia II transformará por completo el sistema de determinación de las necesidades de capital del sector asegurador europeo. Recientemente se ha presentado el último estudio de impacto cuantitativo (QIS5), donde se establece la forma de cálculo del modelo estándar para la determinación de los requerimientos de capital. Este trabajo trata de analizar la adecuación de la calibración del riesgo de crédito de la contraparte mediante los modelos que se proponen en los últimos informes de impacto cuantitativo (cuarto y quinto). Para ello comparamos las necesidades de capital que se obtienen por ambas alternativas, frente a las que resultarían de aplicar un modelo de simulación basado en el enfoque estructural. Los resultados obtenidos muestran que el uso de probabilidades basadas en la metodología de Merton frente a aquellas basadas en ratings, dan lugar a requerimientos de capital sustancialmente mayores. Además, el modelo propuesto en QIS4 basado en la distribución de Vasicek no es adecuado cuando el número de contrapartes es reducido, situación habitual en el sector asegurador europeo. Por otra parte, la nueva propuesta (QIS5 o modelo de Ter Berg) es más versátil y adecuada que su antecesora pero requiere analizar con más detenimiento las hipótesis de calibración para de este modo aproximar mejor las estimaciones al riesgo realmente asumido.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O Compact Muon Solenoid (CMS) é um dos principais detectores instalados no LHC que possibilita o estudo de diferentes aspectos da Física, indo do Modelo Padrão à matéria escura. Esse detector de propósito geral, foi construído para ser capaz de medir múons com uma grande precisão e todos os seus subdetectores foram construídos com uma alta granularidade, tornando possível identificar e caracterizar as propriedades cinemáticas das partículas finais da colisão. O algoritmo de reconstrução de eventos inclui a identificação de jatos, ou seja, é possível identificar a assinatura da produção de pártons na colisão e a medida de seções de choque da produção de muitos jatos é um dos métodos para se explorar as contribuições da Cromodinâmica Quântica (Quantum Chromodynamics - QCD) perturbativa, permitindo avaliar as previsões implementadas nas simulações de eventos. Tendo em vista a caracterização de processos relacionados com a QCD em colisões de próton-próton a uma energia do centro de massa de 7 TeV, é apresentada a medida da seção de choque da produção inclusiva de multijatos no CMS. Para realizar essa medida foram utilizados dados reais coletados em 2010, onde não se apresentava muitas colisões por cruzamento de pacote, com uma luminosidade integrada de L = 2,869 pb-1 e utilizando jatos que estão em quase todo o espaço de fase acessível em pseudorapidez |n|≤ 4,8 e momentum transverso pT ≥ 30 GeV/ c2. Desse resultado foram removidos os efeitos de detecção comparado com predições simuladas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Trata do indulto, modalidade coletiva da graça, procurando estabelecer seus limites e finalidades no âmbito do Estado moderno. Após a delimitação do tema, distinguindo-se a graça das demais modalidades de clemência estatal, e justificação das escolhas terminológicas, passa-se à evolução histórica do instituto e, em seguida, à sucinta exposição sobre a configuração atual nos ordenamentos estrangeiros. Identifica-se, não obstante a concretização da graça na maioria das Constituições modernas, uma tendência de restrição do âmbito de aplicação do instituto, tanto por parte da doutrina quanto pela jurisprudência e produção legislativa. As restrições são impostas com base na suposta necessidade de adequação da graça, cuja origem remete às prerrogativas monárquicas típicas do Estado absolutista, aos princípios fundamentais do Estado Democrático de Direito, especialmente os princípios da separação de poderes e da igualdade. Adentrando o núcleo do trabalho, procura-se estabelecer a relação entre indulto e os princípios do Estado Democrático de Direito, de forma que sejam identificados limites ao exercício da atribuição, com fulcro no texto constitucional. Afere-se, assim, a legitimidade da restrição do indulto a hipóteses caracterizadas pela excepcionalidade e irrepetibilidade, baseada em alegada relação de contradição entre a atribuição de indultar do Poder Executivo e o princípio da separação de poderes, o princípio da igualdade e os eventos regulares do mecanismo sancionatório. Delimitadas as possibilidades de exercício legítimo da atribuição, busca-se, então, fixar os parâmetros que devem pautar o conteúdo dos atos de indulto, com base nas teorias da pena. Adota-se, para tanto, a teoria preventiva positiva, procurando-se identificar hipóteses em que a execução da pena aplicada não contribuiria para a realização de suas finalidades, para elaborar, a partir disso, casos de cabimento do exercício do indulto.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A inflação consegue dar conta de uma série de problemas do Modelo padrão da Cosmologia, preservando ainda o sucesso do modelo do Big Bang. Na sua versão mais simples, a inflação é controlada por um campo escalar, o ínflaton, que faz com que o universo se expanda exponencialmente. Após, o ínflaton decai e ocorre o reaquecimento do universo. Contudo, alguns autores apontam a existência de uma fase intermediária, chamada de pré-aquecimento. O decaimento do ínflaton possui uma rica dinâmica não-linear. No primeiro estágio, a ressonância paramétrica promove o crescimento exponencial de alguns modos do ínflaton. Isto altera a dinâmica do modo homogêneo do ínflaton, promovendo uma reestruturação das cartas de ressonâncias da equação de movimento dos modos perturbativos. Desta forma, ocorre a transferência de energia para estes modos, até que o universo termaliza. Esta transferência de energia é típica de um sistema turbulento. Por se tratar de uma evolução não-linear, torna-se conveniente a implementação computacional de métodos numéricos. Neste contexto, os métodos espectrais têm se mostrado uma excelente ferramenta para estudar este tipo de sistema. Esta dissertação apresenta os resultados do esquema numérico desenvolvido para o modelo com potencial quártico, que será a base para os demais estudos a serem desenvolvidos. Como mostrado, este esquema é extremamente preciso e eficiente.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Apresenta-se neste trabalho um estudo sobre a largura de decaimento total do bóson de Higgs através do canal H→ ZZ → (4e, 4, 2e2). Segundo o Modelo Padrão da Física de Partículas Elementares, um bóson de Higgs com massa de 126 GeV deve ter uma largura de decaimento total ΓH = 4.15 MeV, muito abaixo da resoluções dos experimentos instalados no LHC. Isto impede uma medida direta sobre os eventos da ressonância. Recentemente foi proposto limitar ΓH a partir da relação entre a taxa de eventos observados na região da ressonância e na região off-shell. Utilizando o pacote de análise desenvolvido pela colaboração CMS obteve-se um limite de ΓH < 31.46(12.82) MeV em 95(68.3)% CL combinando os dados coletados pelo LHC em colisões pp em √s = 7 TeV (5.1fb-1) e em √s = 8 TeV (19.7fb -1).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Recently there has been interest in combining generative and discriminative classifiers. In these classifiers features for the discriminative models are derived from the generative kernels. One advantage of using generative kernels is that systematic approaches exist to introduce complex dependencies into the feature-space. Furthermore, as the features are based on generative models standard model-based compensation and adaptation techniques can be applied to make discriminative models robust to noise and speaker conditions. This paper extends previous work in this framework in several directions. First, it introduces derivative kernels based on context-dependent generative models. Second, it describes how derivative kernels can be incorporated in structured discriminative models. Third, it addresses the issues associated with large number of classes and parameters when context-dependent models and high-dimensional feature-spaces of derivative kernels are used. The approach is evaluated on two noise-corrupted tasks: small vocabulary AURORA 2 and medium-to-large vocabulary AURORA 4 task. © 2011 IEEE.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

选用直径5 cm和10 cm的盘式吸渗仪,对杨凌土(粘土)和神木砂黄土(砂壤土)两种质地的土壤在1 cm、3 cm6、cm9、cm和12 cm水头5种负压下进行了室内盘式吸渗仪三维吸渗实验,选取Vandervaere公式作为参考模型,对Philip公式确定吸渗率的时间尺度选取进行了分析。结果表明,对两种质地的土壤,在相同盘径下,随着负压的降低,吸渗率随之减小;在相同负压下,盘径越小,吸渗率越大;质地较砂的砂黄土吸渗率明显大于质地较粘的土的吸渗率。从相对误差来看,两种质地土壤吸渗率均被高估;在同一盘径下,随着负压的减小,误差值逐渐降低;即在选取的时间范围内,负压越低,计算吸渗率的准确性越高。对土而言,5 cm盘径下-12 cm水头1、0 cm盘径下-9 cm水头和-12 cm水头时确定吸渗率的适宜时间分别为30~40 s和40~50 s;其余确定吸渗率的适宜时间均应小于30 s;对砂黄土而言,10 cm盘径下-9 cm水头和-12 cm水头时确定吸渗率的适宜时间分别为30~40 s和40~50 s,其余确定吸渗率的适宜时间也均应小于30 s。对于质地较砂的土壤推荐使用大盘径进行盘式吸渗仪实验。

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Inspired by human visual cognition mechanism, this paper first presents a scene classification method based on an improved standard model feature. Compared with state-of-the-art efforts in scene classification, the newly proposed method is more robust, more selective, and of lower complexity. These advantages are demonstrated by two sets of experiments on both our own database and standard public ones. Furthermore, occlusion and disorder problems in scene classification in video surveillance are also first studied in this paper.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The standard model for the origin of galactic magnetic fields is through the amplification of seed fields via dynamo or turbulent processes to the level consistent with present observations. Although other mechanisms may also operate, currents from misaligned pressure and temperature gradients (the Biermann battery process) inevitably accompany the formation of galaxies in the absence of a primordial field. Driven by geometrical asymmetries in shocks associated with the collapse of protogalactic structures, the Biermann battery is believed to generate tiny seed fields to a level of about 10 gauss (refs 7, 8). With the advent of high-power laser systems in the past two decades, a new area of research has opened in which, using simple scaling relations, astrophysical environments can effectively be reproduced in the laboratory. Here we report the results of an experiment that produced seed magnetic fields by the Biermann battery effect. We show that these results can be scaled to the intergalactic medium, where turbulence, acting on timescales of around 700 million years, can amplify the seed fields sufficiently to affect galaxy evolution.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

With the growing interest in the topic of attribute non-attendance, there is now widespread use of latent class (LC) structures aimed at capturing such behaviour, across a number of different fields. Specifically, these studies rely on a confirmatory LC model, using two separate values for each coefficient, one of which is fixed to zero while the other is estimated, and then use the obtained class probabilities as an indication of the degree of attribute non-attendance. In the present paper, we argue that this approach is in fact misguided, and that the results are likely to be affected by confounding with regular taste heterogeneity. We contrast the confirmatory model with an exploratory LC structure in which the values in both classes are estimated. We also put forward a combined latent class mixed logit model (LC-MMNL) which allows jointly for attribute non-attendance and for continuous taste heterogeneity. Across three separate case studies, the exploratory LC model clearly rejects the confirmatory LC approach and suggests that rates of non-attendance may be much lower than what is suggested by the standard model, or even zero. The combined LC-MMNL model similarly produces significant improvements in model fit, along with substantial reductions in the implied rate of attribute non-attendance, in some cases even eliminating the phenomena across the sample population. Our results thus call for a reappraisal of the large body of recent work that has implied high rates of attribute non-attendance for some attributes. Finally, we also highlight a number of general issues with attribute non-attendance, in particular relating to the computation of willingness to pay measures.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mixed Messages presents and interrogates ten distinct moments from the arts of nineteenth, twentieth and twenty-first century America where visual and verbal forms blend and clash. Charting correspondences concerned with the expression and meaning of human experience, this volume moves beyond standard interdisciplinary theoretical approaches to consider the written and visual artwork in embodied, cognitive, and contextual terms.

Offering a genuinely interdisciplinary contribution to the intersecting fields of art history, avant-garde studies, word-image relations, and literary studies, Mixed Messages takes in architecture, notebooks, poetry, painting, conceptual art, contemporary art, comic books, photographs and installations, ending with a speculative conclusion on the role of the body in the experience of digital mixed media. Each of the ten case studies explores the juxtaposition of visual and verbal forms in a manner that moves away from treating verbal and visual symbols as operating in binary or oppositional systems, and towards a consideration of mixed media, multi-media and intermedia work as brought together in acts of creation, exhibition, reading, viewing, and immersion. The collection advances research into embodiment theory, affect, pragmatist aesthetics, as well as into the continuing legacy of romanticism and of dada, conceptual art and surrealism in an American context.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The advent of high-power laser facilities has, in the past two decades, opened a new field of research where astrophysical environments can be scaled down to laboratory dimensions, while preserving the essential physics. This is due to the invariance of the equations of magneto-hydrodynamics to a class of similarity transformations. Here we review the relevant scaling relations and their application in laboratory astrophysics experiments with a focus on the generation and amplification of magnetic fields in cosmic environment. The standard model for the origin of magnetic fields is a multi stage process whereby a vanishing magnetic seed is first generated by a rotational electric field and is then amplified by turbulent dynamo action to the characteristic values observed in astronomical bodies. We thus discuss the relevant seed generation mechanisms in cosmic environment including resistive mechanism, collision-less and fluid instabilities, as well as novel laboratory experiments using high power laser systems aimed at investigating the amplification of magnetic energy by magneto-hydrodynamic (MHD) turbulence. Future directions, including efforts to model in the laboratory the process of diffusive shock acceleration are also discussed, with an emphasis on the potential of laboratory experiments to further our understanding of plasma physics on cosmic scales.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The dermaseptin antimicrobial peptide family contains members of 27–34 amino acids in length that have been predominantly isolated from the skins/skin secretions of phyllomedusine leaf frogs. By use of a degenerate primer in Rapid amplification of cDNA ends (RACE) PCR designed to a common conserved domain within the 5′-untranslated regions of previously-characterized dermaseptin encoding cDNAs, two novel members of this peptide family, named dermaseptin-PD-1 and dermaseptin-PD-2, were identified in the skin secretion of the phyllomedusine frog, Pachymedusa dacnicolor. The primary structures of both peptides were predicted from cloned cDNAs, as well as being confirmed by mass spectral analysis of crude skin secretion fractions resulted from reversed-phase high-performance liquid chromatography. Chemically-synthesized replicates of dermaseptin-PD-1 and dermaseptin-PD-2 were investigated for antimicrobial activity using standard model microorganisms (Gram-positive bacteria, Gram-negative bacteria and a yeast) and for cytotoxicity using mammalian red blood cells. The possibility of synergistic effects between the two peptides and their anti-cancer cell proliferation activities were assessed. The peptides exhibited moderate to high inhibition against the growth of the tested microorganisms and cancer cell lines with low haemolytic activity. Synergistic interaction between the two peptides in inhibiting the proliferation of Escherichia coli and human neuronal glioblastoma cell line, U251MG was also manifested.