947 resultados para Non-Standard Model Higgs bosons
Resumo:
Sequential Monte Carlo (SMC) methods are popular computational tools for Bayesian inference in non-linear non-Gaussian state-space models. For this class of models, we propose SMC algorithms to compute the score vector and observed information matrix recursively in time. We propose two different SMC implementations, one with computational complexity $\mathcal{O}(N)$ and the other with complexity $\mathcal{O}(N^{2})$ where $N$ is the number of importance sampling draws. Although cheaper, the performance of the $\mathcal{O}(N)$ method degrades quickly in time as it inherently relies on the SMC approximation of a sequence of probability distributions whose dimension is increasing linearly with time. In particular, even under strong \textit{mixing} assumptions, the variance of the estimates computed with the $\mathcal{O}(N)$ method increases at least quadratically in time. The $\mathcal{O}(N^{2})$ is a non-standard SMC implementation that does not suffer from this rapid degrade. We then show how both methods can be used to perform batch and recursive parameter estimation.
Resumo:
In a recent paper Leong-Huang:2010 {Journal of Applied Statistics 37, 215–233} proposed a wavelet-correlation-based approach to test for cointegration between two time series. However, correlation and cointegration are two different concepts even when wavelet analysis is used. It is known that statistics based on nonstationary integrated variables have non-standard asymptotic distributions. However, wavelet analysis offsets the integrating order of nonstationary series so that traditional asymptotics on stationary variables suffices to ascertain the statistical properties of wavelet-based statistics. Based on this, this note shows that wavelet correlations cannot be used as a test of cointegration.
Resumo:
A new strain gradient theory which is based on energy nonlocal model is proposed in this paper, and the theory is applied to investigate the size effects in thin metallic wire torsion, ultra-thin beam bending and micro-indentation of polycrystalline copper. First, an energy nonlocal model is suggested. Second, based on the model, a new strain gradient theory is derived. Third, the new theory is applied to analyze three representative experiments.
Resumo:
提出一种新的基于能量非局部模型的应变梯度理论,并应用此理论对多晶铜以及薄膜基底的微压痕硬度进行理论预测和数值分析.首先,提出了能量非局部模型,并由此模型,得出新应变梯度理论的本构关系;其次,由变分原理,得出相应的有限元公式;再次,给出了微压痕硬度的有限元分析方法;最后,将该理论预测结果与经典理论预测结果以及实验结果进行了对比.结果表明,计算结果与实验结果相符;而经典理论的预测结果远低于实验结果.
Resumo:
The brain is perhaps the most complex system to have ever been subjected to rigorous scientific investigation. The scale is staggering: over 10^11 neurons, each making an average of 10^3 synapses, with computation occurring on scales ranging from a single dendritic spine, to an entire cortical area. Slowly, we are beginning to acquire experimental tools that can gather the massive amounts of data needed to characterize this system. However, to understand and interpret these data will also require substantial strides in inferential and statistical techniques. This dissertation attempts to meet this need, extending and applying the modern tools of latent variable modeling to problems in neural data analysis.
It is divided into two parts. The first begins with an exposition of the general techniques of latent variable modeling. A new, extremely general, optimization algorithm is proposed - called Relaxation Expectation Maximization (REM) - that may be used to learn the optimal parameter values of arbitrary latent variable models. This algorithm appears to alleviate the common problem of convergence to local, sub-optimal, likelihood maxima. REM leads to a natural framework for model size selection; in combination with standard model selection techniques the quality of fits may be further improved, while the appropriate model size is automatically and efficiently determined. Next, a new latent variable model, the mixture of sparse hidden Markov models, is introduced, and approximate inference and learning algorithms are derived for it. This model is applied in the second part of the thesis.
The second part brings the technology of part I to bear on two important problems in experimental neuroscience. The first is known as spike sorting; this is the problem of separating the spikes from different neurons embedded within an extracellular recording. The dissertation offers the first thorough statistical analysis of this problem, which then yields the first powerful probabilistic solution. The second problem addressed is that of characterizing the distribution of spike trains recorded from the same neuron under identical experimental conditions. A latent variable model is proposed. Inference and learning in this model leads to new principled algorithms for smoothing and clustering of spike data.
Resumo:
In this thesis, we test the electroweak sector of the Standard Model of particle physics through the measurements of the cross section of the simultaneous production of the neutral weak boson Z and photon γ, and the limits on the anomalous Zγγ and ZZγ triple gauge couplings h3 and h4 with the Z decaying to leptons (electrons and muons). We analyze events collected in proton-proton collisions at center of mass energy of sqrt(s) = 7 TeV corresponding to an integrated luminosity of 5.0 inverse femtobarn. The analyzed events were recorded by the Compact Muon Solenoid detector at the Large Hadron Collider in 2011.
The production cross section has been measured for hard photons with transverse momentum greater than 15 GeV that are separated from the the final state leptons in the eta-phi plane by Delta R greater than 0.7, whose sum of the transverse energy of hadrons over the transverse energy of the photon in a cone around the photon with Delta R less than 0.3 is less than 0.5, and with the invariant mass of the dilepton system greater than 50 GeV. The measured cross section value is 5.33 +/- 0.08 (stat.) +/- 0.25 (syst.) +/- 0.12 (lumi.) picobarn. This is compatible with the Standard Model prediction that includes next-to-leading-order QCD contributions: 5.45 +/- 0.27 picobarn.
The measured 95 % confidence-level upper limits on the absolute values of the anomalous couplings h3 and h4 are 0.01 and 8.8E-5 for the Zγγ interactions, and, 8.6E-3 and 8.0E-5 for the ZZγ interactions. These values are also compatible with the Standard Model where they vanish in the tree-level approximation. They extend the sensitivity of the 2012 results from the ATLAS collaboration based on 1.02 inverse femtobarn of data by a factor of 2.4 to 3.1.
Resumo:
Nonlinear X-wave formation at different pulse powers in water is simulated using the standard model of nonlinear Schrodinger equation (NLSE). It is shown that in near field X-shape originally emerges from the interplay between radial diffraction and optical Kerr effect. At relatively low power group-velocity dispersion (GVD) arrests the collapse and leads to pulse splitting on axis. With high enough power, multi-photon ionization (NIPI) and multi-photon absorption (MPA) play great importance in arresting the collapse. The tailing part of pulse is first defocused by MPI and then refocuses. Pulse splitting on axis is a manifestation of this process. Double X-wave forms when the split sub-pulses are self-focusing. In the far field, the character of the central X structure of conical emission (CE) is directly related to the single or double X-shape in the near field. (c) 2007 Elsevier B.V. All rights reserved.
Resumo:
The free neutron beta decay correlation A0 between neutron polarization and electron emission direction provides the strongest constraint on the ratio λ = gA/gV of the Axial-vector to Vector coupling constants in Weak decay. In conjunction with the CKM Matrix element Vud and the neutron lifetime τn, λ provides a test of Standard Model assumptions for the Weak interaction. Leading high-precision measurements of A0 and τn in the 1995-2005 time period showed discrepancies with prior measurements and Standard Model predictions for the relationship between λ, τn, and Vud. The UCNA experiment was developed to measure A0 from decay of polarized ultracold neutrons (UCN), providing a complementary determination of λ with different systematic uncertainties from prior cold neutron beam experiments. This dissertation describes analysis of the dataset collected by UCNA in 2010, with emphasis on detector response calibrations and systematics. The UCNA measurement is placed in the context of the most recent τn results and cold neutron A0 experiments.
Resumo:
La actividad aseguradora supone la transferencia de riesgos del asegurado al asegurador. El asegurador se compromete al pago de una prestación si el riesgo se realiza. Se produce un cambio en el ciclo productivo. El asegurador vende una cobertura sin conocer el momento y el coste exacto de dicha cobertura. Esta particularidad de la actividad aseguradora explica la necesidad para una entidad aseguradora de ser solvente en cada momento y ante cualquier imprevisto. Por ello, la solvencia de las entidades aseguradoras es un aspecto que se ha ido recogiendo en las distintas normativas que han regulado la actividad aseguradora y al que se ha ido dando cada vez más importancia. Actualmente la legislación vigente en materia de solvencia de las aseguradoras esta regulada por la directiva europea Solvencia I. Esta directiva establece dos conceptos para garantizar la solvencia: las provisiones técnicas y el margen de solvencia. Las provisiones técnicas son las calculadas para garantizar la solvencia estática de la compañía, es decir aquella que hace frente, en un instante temporal determinado, a los compromisos asumidos por la entidad. El margen de solvencia se destina a cubrir la solvencia dinámica, aquella que hace referencia a eventos futuros que puedan afectar la capacidad del asegurador. Sin embargo en una corriente de gestión global del riesgo en la que el sector bancario ya se había adelantado al sector asegurador con la normativa Basilea II, se decidió iniciar un proyecto europeo de reforma de Solvencia I y en noviembre del 2009 se adoptó la directiva 2009/138/CE del parlamento europeo y del consejo, sobre el seguro de vida, el acceso a la actividad de seguro y de reaseguro y su ejercicio mas conocida como Solvencia II. Esta directiva supone un profundo cambio en las reglas actuales de solvencia para las entidades aseguradoras. Este cambio persigue el objetivo de establecer un marco regulador común a nivel europeo que sea más adaptado al perfil de riesgo de cada entidad aseguradora. Esta nueva directiva define dos niveles distintos de capital: el SCR (requerimiento estándar de capital de solvencia) y el MCR (requerimiento mínimo de capital). Para el calculo del SCR se ha establecido que el asegurador tendrá la libertad de elegir entre dos modelos. Un modelo estándar propuesto por la Autoridad Europea de Seguros y Pensiones de Jubilación (EIOPA por sus siglas en inglés), que permitirá un calculo simple, y un modelo interno desarrollado por la propia entidad que deberá ser aprobado por las autoridades competentes. También se contempla la posibilidad de utilizar un modelo mixto que combine ambos, el estándar y el interno. Para el desarrollo del modelo estándar se han realizado una serie de estudios de impacto cuantitativos (QIS). El último estudio (QIS 5) ha sido el que ha planteado de forma más precisa el cálculo del SCR. Plantea unos shocks que se deberán de aplicar al balance de la entidad con el objetivo de estresarlo, y en base a los resultados obtenidos constituir el SCR. El objetivo de este trabajo es realizar una síntesis de las especificaciones técnicas del QIS5 para los seguros de vida y realizar una aplicación práctica para un seguro de vida mixto puro. En la aplicación práctica se determinarán los flujos de caja asociados a este producto para calcular su mejor estimación (Best estimate). Posteriormente se determinará el SCR aplicando los shocks para los riesgos de mortalidad, rescates y gastos. Por último, calcularemos el margen de riesgo asociado al SCR. Terminaremos el presente TFG con unas conclusiones, la bibliografía empleada así como un anexo con las tablas empleadas.
Resumo:
[ES] La entrada en vigor del proyecto de Solvencia II transformará por completo el sistema de determinación de las necesidades de capital del sector asegurador europeo. Recientemente se ha presentado el último estudio de impacto cuantitativo (QIS5), donde se establece la forma de cálculo del modelo estándar para la determinación de los requerimientos de capital. Este trabajo trata de analizar la adecuación de la calibración del riesgo de crédito de la contraparte mediante los modelos que se proponen en los últimos informes de impacto cuantitativo (cuarto y quinto). Para ello comparamos las necesidades de capital que se obtienen por ambas alternativas, frente a las que resultarían de aplicar un modelo de simulación basado en el enfoque estructural. Los resultados obtenidos muestran que el uso de probabilidades basadas en la metodología de Merton frente a aquellas basadas en ratings, dan lugar a requerimientos de capital sustancialmente mayores. Además, el modelo propuesto en QIS4 basado en la distribución de Vasicek no es adecuado cuando el número de contrapartes es reducido, situación habitual en el sector asegurador europeo. Por otra parte, la nueva propuesta (QIS5 o modelo de Ter Berg) es más versátil y adecuada que su antecesora pero requiere analizar con más detenimiento las hipótesis de calibración para de este modo aproximar mejor las estimaciones al riesgo realmente asumido.
Resumo:
O presente trabalho objetiva compreender como a temática afrobrasileira era abordada nos cotidianos do Curso de Pedagogia, campus I, da Universidade Estadual da Paraíba. A questão norteadora da pesquisa foi descobrir como professoras e estudantes negras se sentem e enfocam essa temática nas suas redes de conhecimentos, práticas e relações. Para tanto, foi preciso adentrar na história do povo negro no Brasil a partir da luta dos movimentos sociais negros buscando entender as noções de raça, racismo, identidade e os limites da educação do/a negro/a ao longo da história brasileira. Neste percurso se dialoga com diversos estudiosos/as como: Santos (2002), Viana (2007), Oliveira (2003, 2006, 2007, 2008), Fernandes (2007), Domingues (2009), Munanga (2002, 2006, 2009), Veiga (2007, 2008)), Pereira (2008, 2009), Gomes (2003, 2006, 2008), Morin (2000), Hall (2003), Moreira e Câmara (2008), dentre outros. Exemplificando a luta e a resistência de mulheres negras são apresentadas as histórias de vida de quatro professoras e quatro estudantes negras, praticantes (CERTEAU, 2007), sujeitos da pesquisa, que expõem o processo de tessitura de suas identidades. Suas narrativas evidenciam indícios de racismo e discriminação que marcaram suas trajetórias, desde o seio familiar, fortalecendo-se na escola, na academia e, para algumas, chegando até o ambiente de trabalho. Uma das professoras é a pesquisadora que, à medida que narra a história de vida das praticantes, tece sua própria história, como mulheres costurando uma colcha de retalhos em que cada estampa retrata os momentos vividos. A metodologia de pesquisa nos/dos/com os cotidianos (ALVES, 2008) foi o caminho percorrido. Além da observação dos cotidianos, foram realizadas conversas (LARROSA, 2003) sobre as histórias de vida (BOSI, 2003; PORTELLI, 1997) e tecidas as narrativas a partir dessas vivências. Estas revelaram que tais mulheres, ao longo de suas histórias, viveram/vivem processos de afirmaçãonegação, visto que suas identidades não são fixas, mas negociações e renegociações (MUNANGA, 2010) que geram alegrias e conflitos. O entendimento do que é Ser Negra é experimentado por cada uma, sem um modelo padrão para suas existências. Elas foram se gerando nas relações com o/a outro/a, em cada contexto familiar, escolar, acadêmico e profissional. São senhoras de suas vidas e mesmo as mais jovens buscam fazer suas histórias com autonomia. São praticantes porque lutaram/lutam para conquistar um lugar na vida, utilizando astúcias e táticas para fabricar (CERTEAU, 2007) meios de enfrentamento das adversidades. As táticas do silêncio, do estudo e do trabalho revelaram que essas mulheres não ficaram invisíveis nem se colocaram como vítimas no espaço social. Assim, urge delinear a superação da visão da pessoa negra a partir dos traços físicos e reconhecer as raízes do povo brasileiro para compreender a história da negritude. A partir da ancestralidade, serão identificadas as origens do povo negro, que poderão trazer o passado de resistência e luta por liberdade, dignidade, cidadania que produzem o orgulho de ser negra. Orgulho que recupera a autoestima e a capacidade de organização e mobilização para combater o racismo e as desigualdades raciais. Os cursos de formação docente precisam abordar essa temática para capacitar os/as futuros/as professores/as nessa tarefa. Essa abordagem envolve o ensinaraprender, em que professores/as e estudantes assumem compromisso com uma educação crítica e inclusiva. A reflexão entre os/as docentes formadores/as nessa perspectiva plural e intercultural poderia ajudar na superação do eurocentrismo ainda presente nos conteúdos e nas mentalidades. Sob essa ótica, tecer um processo de formação docente no Curso de Pedagogia, comprometido com uma educação inclusiva, considera um contínuo fazerdesfazer, na tessitura de um diálogo permanente entre a práticateoriaprática, num movimento de pesquisaintervenção. Isso implica a reflexão da trajetória pessoal e coletiva e a articulação da ação pedagógica com um projeto político de transformação da sociedade excludente em sociedade plural e solidária. Os não ditos necessitam de aprofundamento em trabalhos posteriores, pois os silenciamentos se referem ao passado próximo e as relações interraciais na família, na academia e também nos ambientes de trabalho. Será que não existe mais racismo? Ou este foi naturalizado dificultando sua identificação nos cotidianos? Os limites do processo de introjeção do racismo, que provocam a invisibilidade de algumas praticantes, são novos desafios para estudos futuros. Assim, percebo que colcha de retalhos tecida ao longo desta trajetória não é justaposição como usualmente é entendida. Para além disto, significa a socialização das experiências vividas nos cotidianos das praticantes, a fim de inspirar atitudes de combate ao racismo que se ampliem para o contexto social.
Resumo:
[eus] Ikerketa honen helburu nagusia Euskal Herriko bi ikastetxe ezberdinetako Lehen Hezkuntzako umeek problema matematiko ez estandarren aurrean ze nolako erantzun mota ematen dituzten aztertzea da. Horretarako, Laura Jiménezek eta Lieven Verschaffelek egindako lanean oinarrituz, umeei 6 problema (4 ez estandarrak eta 2 estandarrak) dituen froga bat egin diet, ondorio hauek lortuz: Ikasleen %3,29k erantzun zuzena eman dio erantzun gabeko problemari, %7,69k erantzun zuzena eman dio erantzun bat baino gehiago duen problemari, %45,05ek erantzun zuzena eman dio erantzuna enuntziatuan duen problemari eta azkenik, ikasleen %46,15ek erantzun zuzena eman dio datuak soberan dituen problemari. Gainera, nahiz eta ikastetxeen metodologia ezberdina izan, ateratako emaitzak antzekoak dira, beraz, metodologiak ez duela eraginik ondorioztatzen da.
Resumo:
O Compact Muon Solenoid (CMS) é um dos principais detectores instalados no LHC que possibilita o estudo de diferentes aspectos da Física, indo do Modelo Padrão à matéria escura. Esse detector de propósito geral, foi construído para ser capaz de medir múons com uma grande precisão e todos os seus subdetectores foram construídos com uma alta granularidade, tornando possível identificar e caracterizar as propriedades cinemáticas das partículas finais da colisão. O algoritmo de reconstrução de eventos inclui a identificação de jatos, ou seja, é possível identificar a assinatura da produção de pártons na colisão e a medida de seções de choque da produção de muitos jatos é um dos métodos para se explorar as contribuições da Cromodinâmica Quântica (Quantum Chromodynamics - QCD) perturbativa, permitindo avaliar as previsões implementadas nas simulações de eventos. Tendo em vista a caracterização de processos relacionados com a QCD em colisões de próton-próton a uma energia do centro de massa de 7 TeV, é apresentada a medida da seção de choque da produção inclusiva de multijatos no CMS. Para realizar essa medida foram utilizados dados reais coletados em 2010, onde não se apresentava muitas colisões por cruzamento de pacote, com uma luminosidade integrada de L = 2,869 pb-1 e utilizando jatos que estão em quase todo o espaço de fase acessível em pseudorapidez |n|≤ 4,8 e momentum transverso pT ≥ 30 GeV/ c2. Desse resultado foram removidos os efeitos de detecção comparado com predições simuladas.
Resumo:
A necessidade de basear as aulas de Língua Portuguesa na gramática normativa é muito defendida no ambiente escolar. As universidades, por outro lado, aceitam a ideia de que os princípios da Sociolinguística laboviana devem ser introduzidos na educação básica. Dessa maneira, há uma lacuna entre o que se aprende na teoria pedagógica e o que, de fato, ocorre em sala de aula. Buscando encurtar a distância existente entre a teoria linguística e a prática pedagógica, esta pesquisa teve como objetivo apresentar um roteiro de atividades que se relacionam à reflexão por parte dos alunos no que tange a suas crenças linguísticas, principalmente as que apresentam uma vertente preconceituosa. Para isso, foi aplicado um teste de crenças linguísticas com alunos do sexto ano do ensino fundamental de uma escola pública, localizada no município de Paracambi, RJ. Depois foram ministradas quatro aulas a fim de demonstrar aos alunos que a norma popular apresenta uma regularidade, portanto, não é linguisticamente inferior à norma de prestígio. Para finalizar, o mesmo teste de crenças linguísticas foi aplicado nos mesmos alunos. Essa pesquisa, baseada em Cyranka (2007), verificou a viabilidade de um trabalho com a Sociolinguística na escola, procurando avaliar a capacidade de os alunos refletirem sociolinguisticamente
Resumo:
Os receptores β1- e β2-adrenérgicos estão presentes em inúmeras células que participam do processo de reparo como fibroblastos, queratinócitos, células inflamatórias e células endoteliais. Diversos trabalhos demonstram que estes receptores modulam o processo de reparo tecidual. Entretanto, nenhum trabalho demonstrou se o bloqueio destes receptores compromete o reparo de úlceras de pressão. O objetivo deste estudo foi avaliar o efeito do bloqueio dos receptores β1- e β2-adrenérgicos no reparo de úlceras de pressão em camundongos, para isto utilizamos um modelo não invasivo de lesão por isquemia e reperfusão. No presente estudo, utilizamos animais que foram tratados por gavagem com propranolol (um antagonista não seletivo dos receptores β1- e β2-adrenérgicos). A administração do antagonista teve início um dia antes do início dos ciclos de isquemia e reperfusão e se manteve diariamente até a eutanásia. Para desenvolver a úlcera de pressão, um par de magnetos foi aplicado no dorso dos animais previamente depilado. O período de permanência do magneto é caracterizado como período de isquemia, enquanto sua retirada é caracterizada como período de reperfusão. Os ciclos de isquemia e reperfusão foram repetidos duas vezes, e ao final do último ciclo, duas úlceras circulares foram criadas no dorso dos animais. Os animais foram mortos 3, 7, 14 e 21 dias após a lesão. Após o último ciclo de isquemia, o fluxo sanguíneo da área comprimida foi nulo, 7 horas após a compressão o fluxo sanguíneo estava elevado, com níveis superiores ao da pele normal. Após 24 e 48 horas, o fluxo sanguíneo estava reduzido e abaixo dos níveis da pele normal. O bloqueio dos receptores β1- e β2-adrenérgicos aumentou os níveis de peróxidos lipídicos 3 dias após a lesão, comprometeu a migração dos queratinócitos, levando a um aumento da proliferação epitelial, resultando em uma re-epitelização atrasada. O retardo na formação da neo-epiderme induzido pelo bloqueio destes receptores prejudicou a remoção do tecido necrótico. O bloqueio dos receptores β1- e β2-adrenérgicos aumentou o número de células inflamatórias (neutrófilos e macrófagos), os níveis proteicos de elastase neutrofílica 3 dias após a lesão e reduziu os níveis proteicos de MCP-1 3 dias após a lesão e os níveis proteicos de MMP-12 7 dias após a lesão. O bloqueio dos receptores β1- e β2-adrenérgicos aumentou a proliferação celular e apoptose no tecido conjuntivo 7 dias após a lesão e aumentou a densidade de vasos sanguíneos 14 e 21 dias após a lesão. O bloqueio dos receptores β1- e β2-adrenérgicos retardou a diferenciação miofibroblástica e reduziu os níveis proteicos de TGF-β 1/2/3 3 dias após a lesão e a contração da lesão. Vinte e um dias após a lesão, o bloqueio dos receptores β1- e β2-adrenérgicos aumentou a espessura da neo-epiderme e a expressão de tenascina-C em fibroblastos e reduziu a deposição de colágeno. Em conclusão, o bloqueio dos receptores β1- e β2-adrenérgicos atrasa o reparo tecidual em úlceras de pressão.