6 resultados para GLUINO DECAYS

em Université de Montréal, Canada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous rapportons les résultats d'une étude des désintégrations semileptoniques non-charmées B^+--> êta^(') l^+v et B^0--> pi^- l^+v, mesurés par le détecteur BABAR avec une production d'environ 464 millions de paires de mésons BBbar issues des collisions e^+e^- à la résonance Upsilon(4S). L'analyse reconstruit les événements avec une technique relâchée des neutrinos. Nous obtenons les rapports d'embranchement partiels pour les désintégrations B^+--> êta l^+v et B^0--> pi^- l^+v en trois et douze intervalles de q^2, respectivement, à partir desquels nous extrayons les facteurs de forme f_+(q^2) et les rapports d'embranchement totaux B(B^+--> êta l^+v) = (3.39 +/- 0.46_stat +/- 0.47_syst) x 10^-5 et B(B^0--> pi^- l^+v) = (1.42 +/- 0.05_stat +/- 0.08_syst) x 10^-4. Nous mesurons aussi B(B^+--> êta' l^+v) = (2.43 +/- 0.80_stat +/- 0.34_syst) x 10^-5. Nous obtenons les valeurs de la norme de l'élément |V_ub| de la matrice CKM en utilisant trois calculs différents de la CDQ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente l’application de la méthode de décomposition en termes de diagrammes aux désintégrations de mésons B vers trois mésons de type pseudos- calaire ne comportant pas de quarks charmés. La décomposition diagrammatique des désintégrations de types B → Kππ, B → KKK ̄, B → KK ̄π et B → πππ est effectuée de façon systématique. Il est démontré que lorsque l’on néglige les dia- grammes d’échanges et d’annihilations, dont les contributions sont estimées être petites, de nouvelles relations apparaissent entre les amplitudes. Ces relations sont de nouveaux tests du modèle standard qui ne peuvent être obtenus que par la méthode diagrammatique. Lorsque les données nécessaires sont disponibles, nous vérifions ces relations et obtenons un bon accord avec les données expérimentales. Nous démontrons également qu’il est possible d’utiliser le secteur B → Kππ pour mesurer la phase faible γ avec une incertitude théorique que nous estimons être de l’ordre de 5%. Les autres secteurs de désintégrations ne permettent d’extraire des phases faibles que si l’on invoque des approximations de précisions inconnues.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de maîtrise a pour objet une recherche de leptons lourds de quatrième génération avec les données prises par le détecteur ATLAS au LHC dans les collisions pp à $\sqrt{s}$ = 7 TeV et avec une luminosité intégrée de 1.02 fb$^{-1}$. Le processus étudié est la production au singulet de leptons lourds neutres de quatrième génération (N) par la voie du courant chargé suivi de la désintégration du celui-ci en un électron et un boson W : $ pp \to W \to N e \to e W e \to e e \nu_{\ell} \ell $ ($\ell$ = $e$ ou $\mu$), et dépend d'un paramètre de mélange $\xi^{2}$ avec un lepton léger. L'analyse passe par plusieurs étapes, soit l'utilisation de FeynRules pour construire le modèle pour ensuite générer des événements par MadGraph 5.1.2.4. Comme hypothèse de référence, on a choisi une masse de 100 GeV pour le lepton lourd neutre et $\xi_{Ne}^2$ = 0.19, donnant une section efficace de 0.312 pb pour une énergie au centre de masse de 7 TeV. Puisque la génération du signal s'est faite de manière privée à Montréal et non par la collaboration ATLAS, les résultats ne peuvent pas être reconnus officiellement. Sur la base de la simulation, avec des données correspondant à 1 fb$^{-1}$, la limite supérieure attendue à un niveau de confiance de $95\%$ sur la section efficace du signal est de 0.145 pb avec 0.294 pb pour un écart type($\sigma$) et 0.519 pb pour 2$\sigma$. La limite supérieure attendue à un niveau de confiance de $95\%$ sur $\xi_{Ne}^{2}$ de 0.09 pour une masse de 100 GeV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dystrophie musculaire de Duchenne (DMD) est une maladie très sévère, progressive et sans traitement vraiment efficace. Elle est caractérisée par l’absence fonctionnelle de la dystrophine, une protéine essentielle au maintien des muscles squelettiques. La thérapie génique est actuellement envisagée comme approche thérapeutique pour livrer la dystrophine dans les muscles. Les vecteurs adénoviraux de troisième génération (Helper-dependent adenoviral vector, HD) sont des véhicules de transfert génique très prometteurs pour traiter la DMD. Puisque les gènes adénoviraux ont été enlevés complètement du HD, ils sont peu toxiques, faiblement immunogéniques et ils possèdent un espace cargo suffisant pour transporter l’ADN codant complet de la dystrophine. Bien que le HD puisse fournir la dystrophine de façon thérapeutique chez des souris dystrophiques (mdx), l’expression du gène thérapeutique est progressivement perdue plusieurs mois suivant l’injection intramusculaire. Deux stratégies innovantes furent explorées dans cette thèse dans le but de stabiliser l’expression de la dystrophine. La première stratégie vise à l’intégration de l’ADN du HD dans les chromosomes cellulaires, ce qui pourrait le protéger contre son élimination progressive des muscles. Une intégrase site-spécifique issue du phage ΦC31 a été utilisée pour catalyser l’intégration d’un HD transportant un marqueur de sélection. Dans les cellules humaines et les myoblastes murins, l’activité de l’intégrase a été évaluée d’après son efficacité d’intégration (après sélection) et sa spécificité (dans les clones résistants). L’efficacité atteint jusqu’à 0,5 % par cellule et jusqu’à 76 % des événements d’intégration ont été réalisés de façon site-spécifique. Bien que des délétions aient été trouvées aux extrémités du vecteur, 70 % des clones analysés montraient une seule copie du vecteur intégré (le nombre attendu). Seulement une petite augmentation du nombre de brisures double-brin a été mesurée dans les myoblastes exprimant l’intégrase. En conclusion, l’intégration du HD est relativement efficace, spécifique et sécuritaire. Cette méthode est très prometteuse, car la dystrophine peut être livrée dans le muscle avec l’aide du HD et l’intégration de l’ADN du HD pourrait stabiliser son expression in vivo. La deuxième stratégie implique l’utilisation d’un nouveau promoteur musculospécifique (ΔUSEx3) pour réduire la toxicité induite liée à une expression trop étendue de la dystrophine. Dans cette étude, nous avons investigué l’effet du contexte viral sur l’activité du promoteur. Un HD et un vecteur lentiviral (LV) ont été construits avec le promoteur ΔUSEx3 pour contrôler l’expression d’un gène rapporteur. Les résultats démontrent que ΔUSEx3 confère une expression puissante, musculospécifique et stable (via le LV) in vitro. L’injection intramusculaire du HD a conduit à une expression puissante du transgène. Ces résultats contrastent avec ceux du LV, car après l’injection de ce dernier, l’expression était faible. La livraison du HD dans le muscle, mais aussi dans plusieurs organes démontre la musculospécificité de ΔUSEx3. Par conséquent, le contexte du vecteur et l’environnement musculaire modulent tous les deux l’activité de ΔUSEx3. Bien que ΔUSEx3 soit musculospécifique, d’autres études sont requises pour déterminer si le promoteur peut stabiliser l’expression de la dystrophine in vivo.