26 resultados para CP violation, LHC, LHCb, flavour physics, quark, CKM


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au cours de la dernière décennie, les changements observés sur le marché amènent les organisations à améliorer leurs conditions de travail afin d’être en mesure d’attirer et de retenir des travailleurs performants. Les PRH n’y font pas exception. En effet, les PRH présentent des attentes bien précises et développent un contrat psychologique qui leur est propre. Cette recherche porte sur l’intention de quitter des PRH. Plus précisément, elle vise à identifier à travers la théorie du contrat psychologique, les conditions d’emploi et d’exercice de la profession qui, lorsqu’elles ne sont pas respectées, influencent positivement l’intention de quitter des PRH. Il ressort de nos analyses statistiques que la violation du contrat psychologique, notamment des conditions d’emploi et des conditions d’exercice de la profession, influence positivement l’intention de quitter des PRH. Nos analyses nous ont permis d’identifier les différentes conditions d’emploi et d’exercice de la profession qui ont une influence sur l’intention de quitter des PRH. En ce qui concerne les conditions d’emploi, il s’agit de celles reliées au développement de carrière, à l’atmosphère au travail et au contenu de l’emploi. Du côté des conditions d’exercice de la profession, il s’agit du rôle d’agent de changement et de partenaires d’affaires qui ont une influence positive, tandis que le rôle d’expert fonctionnel influence négativement les intentions de quitter des PRH. Nos analyses mettent en évidence l’importance du respect des conditions d’emploi comparativement à celles associées aux conditions d’exercice de la profession. En effet, on constate que les trois conditions d’emploi qui ont une influence positive sur les intentions de quitter des PRH peuvent, sans contredit, être associées au développement professionnel, une valeur importante chez les PRH.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les détecteurs à pixels Medipix ont été développés par la collaboration Medipix et permettent de faire de l'imagerie en temps réel. Leur surface active de près de $2\cm^2$ est divisée en 65536~pixels de $55\times 55\um^2$ chacun. Seize de ces détecteurs, les Medipix2, sont installés dans l'expérience ATLAS au CERN afin de mesurer en temps réel les champs de radiation produits par les collisions de hadrons au LHC. Ils seront prochainement remplacés par des Timepix, la plus récente version de ces détecteurs, qui permettent de mesurer directement l'énergie déposée dans chaque pixel en mode \textit{time-over-threshold} (TOT) lors du passage d'une particule dans le semi-conducteur. En vue d'améliorer l'analyse des données recueillies avec ces détecteurs Timepix dans ATLAS, un projet de simulation Geant4 a été amorcé par John Id\'{a}rraga à l'Université de Montréal. Dans le cadre de l'expérience ATLAS, cette simulation pourra être utilisée conjointement avec Athena, le programme d'analyse d'ATLAS, et la simulation complète du détecteur ATLAS. Sous l'effet de leur propre répulsion, les porteurs de charge créés dans le semi-conducteur sont diffusés vers les pixels adjacents causant un dépôt d'énergie dans plusieurs pixels sous l'effet du partage de charges. Un modèle effectif de cette diffusion latérale a été développé pour reproduire ce phénomène sans résoudre d'équation différentielle de transport de charge. Ce modèle, ainsi que le mode TOT du Timepix, qui permet de mesurer l'énergie déposée dans le détecteur, ont été inclus dans la simulation afin de reproduire adéquatement les traces laissées par les particules dans le semi-conducteur. On a d'abord étalonné le détecteur pixel par pixel à l'aide d'une source de $\Am$ et de $\Ba$. Ensuite, on a validé la simulation à l'aide de mesures d'interactions de protons et de particules $\alpha$ produits au générateur Tandem van de Graaff du Laboratoire René-J.-A.-Lévesque de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

"L'intersection entre la sécurité de l'État et corollairement celle de ses ressortissants d’un côté, et la protection des droits des personnes qui se trouvent sur son territoire de l’autre, génère une situation antagonique : les prérogatives régaliennes et wébériennes d'utilisation de la force au nom de la sécurité nationale entrent en collision avec le respect des dispositions juridiques, telles que prescrites dans de nombreux instruments du droit international. Terre d’immigration, les États-Unis sont le reflet de ce paradoxe qui existe entre une vision qui place l’individu et ses libertés au centre de ses préoccupations, versus une conceptualisation étato-centrique de la sécurité. Mais le renvoi de l’immigration dans le registre sécuritaire ne relève pas forcément d’une réalité objective. L’analyse critique des manifestations d’(in)sécurité considère en effet ce concept comme n’étant plus exclusivement stato-centrée, élargissement conceptuel auquel s'associe une autre mutation conceptuelle : la securitization, qui postule que la menace n'est pas uniquement objective mais également subjective. Considérant cette ""évolution"" théorique, l’auteur analyse dans cet article l’immigration aux États-Unis au travers d’un processus de périodisation ­des mythes fondateurs aux mesures prises dans la foulée du 11 septembre 2001- pour démontrer que la gestion des flux migratoires en direction des États-Unis a toujours été considérée comme une question de sécurité nationale. Retenant à titre illustratif trois groupes de personnes, les Périls Jaune, puis Rouge et aujourd’hui Vert, vont permettre d’illustrer que les mesures restrictives règlementant l’immigration ­prisent au nom de la sacro-sainte sécurité nationale- constituent de facto, si ce n’est de jure, des atteintes au principe de non-discrimination. Mais tout en soulignant la pérennité du lien qui est effectué entre immigration et sécurité nationale, l’instrumentalisation de ce lien contribue à un renforcement des pratiques régulatrices et à la criminalisation accrue des mouvements transfrontaliers, qui risquent bien d’être contreproductifs par rapport à l’objectif de sécurité recherché !"

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le logiciel de simulation des données et d'analyse est Conquest V.3

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cette thèse, nous analysons les propriétés géométriques des surfaces obtenues des solutions classiques des modèles sigma bosoniques et supersymétriques en deux dimensions ayant pour espace cible des variétés grassmanniennes G(m,n). Plus particulièrement, nous considérons la métrique, les formes fondamentales et la courbure gaussienne induites par ces surfaces naturellement plongées dans l'algèbre de Lie su(n). Le premier chapitre présente des outils préliminaires pour comprendre les éléments des chapitres suivants. Nous y présentons les théories de jauge non-abéliennes et les modèles sigma grassmanniens bosoniques ainsi que supersymétriques. Nous nous intéressons aussi à la construction de surfaces dans l'algèbre de Lie su(n) à partir des solutions des modèles sigma bosoniques. Les trois prochains chapitres, formant cette thèse, présentent les contraintes devant être imposées sur les solutions de ces modèles afin d'obtenir des surfaces à courbure gaussienne constante. Ces contraintes permettent d'obtenir une classification des solutions en fonction des valeurs possibles de la courbure. Les chapitres 2 et 3 de cette thèse présentent une analyse de ces surfaces et de leurs solutions classiques pour les modèles sigma grassmanniens bosoniques. Le quatrième consiste en une analyse analogue pour une extension supersymétrique N=2 des modèles sigma bosoniques G(1,n)=CP^(n-1) incluant quelques résultats sur les modèles grassmanniens. Dans le deuxième chapitre, nous étudions les propriétés géométriques des surfaces associées aux solutions holomorphes des modèles sigma grassmanniens bosoniques. Nous donnons une classification complète de ces solutions à courbure gaussienne constante pour les modèles G(2,n) pour n=3,4,5. De plus, nous établissons deux conjectures sur les valeurs constantes possibles de la courbure gaussienne pour G(m,n). Nous donnons aussi des éléments de preuve de ces conjectures en nous appuyant sur les immersions et les coordonnées de Plücker ainsi que la séquence de Veronese. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Le troisième chapitre présente une analyse des surfaces à courbure gaussienne constante associées aux solutions non-holomorphes des modèles sigma grassmanniens bosoniques. Ce travail généralise les résultats du premier article et donne un algorithme systématique pour l'obtention de telles surfaces issues des solutions connues des modèles. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Dans le dernier chapitre, nous considérons une extension supersymétrique N=2 du modèle sigma bosonique ayant pour espace cible G(1,n)=CP^(n-1). Ce chapitre décrit la géométrie des surfaces obtenues des solutions du modèle et démontre, dans le cas holomorphe, qu'elles ont une courbure gaussienne constante si et seulement si la solution holomorphe consiste en une généralisation de la séquence de Veronese. De plus, en utilisant une version invariante de jauge du modèle en termes de projecteurs orthogonaux, nous obtenons des solutions non-holomorphes et étudions la géométrie des surfaces associées à ces nouvelles solutions. Ces résultats sont soumis dans la revue Communications in Mathematical Physics.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avec la mise en place de la nouvelle limite maximale de 400 000 cellules somatiques par millilitres de lait (c/mL) au réservoir, le mois d’août 2012 a marqué une étape importante en termes de qualité du lait pour les producteurs de bovins laitiers du Canada. L’objectif de cette étude consistait en l’établissement d’un modèle de prédiction de la violation de cette limite au réservoir à l’aide des données individuelles et mensuelles de comptages en cellules somatiques (CCS) obtenues au contrôle laitier des mois précédents. Une banque de donnée DSA comprenant 924 troupeaux de laitiers québécois, en 2008, a été utilisée pour construire un modèle de régression logistique, adapté pour les mesures répétées, de la probabilité d’excéder 400 000 c/mL au réservoir. Le modèle final comprend 6 variables : le pointage linéaire moyen au test précédent, la proportion de CCS > 500 000 c/mL au test précédent, la production annuelle moyenne de lait par vache par jour, le nombre de jours en lait moyen (JEL) au test précédent ainsi que les proportions de vaches saines et de vaches infectées de manière chronique au test précédant. Le modèle montre une excellente discrimination entre les troupeaux qui excèdent ou n’excèdent pas la limite lors d’un test et pourrait être aisément utilisé comme outil supplémentaire de gestion de la santé mammaire à la ferme.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Aucune instance spécifique n’existe sur le plan international pour les litiges civils impliquant la violation par les sociétés transnationales (ci après, STN) des normes de droits humains. Les tribunaux nationaux représentent l’instance compétente afin d’entendre ces causes de droit international privé. Cependant, les tribunaux originaires des STN manifestent leur réticence à exercer leur compétence, alors que les États où sont commises les violations souffrent parfois d’un important déficit de gouvernance. Les victimes se retrouvent ainsi fréquemment sans forum adéquat où adresser leur requête pour les dommages subis. L’objectif du mémoire est de rechercher puis d’élaborer différents arguments afin de faire évoluer l’interprétation de la compétence des tribunaux québécois actuellement préconisée dans le cadre de deux jurisprudences phares en matière d’activité des STN à l’étranger, soit Association canadienne contre l’impunité (ACCI) c. Anvil Mining Ltd., et Recherches Internationales Québec c. Cambior Inc. Le premier chapitre porte sur les règles fondant la compétence des autorités québécoises et les principes les sous-tendant. Notre deuxième chapitre se consacrera à la recherche d’arguments au sein de la jurisprudence étrangère. Notre troisième chapitre présentera les arguments de nature politique, sociale, éthique et théorique rencontrés dans le domaine du droit global. Nous verrons alors plusieurs propositions théoriques afin de mieux appréhender les problèmes liés au vide juridictionnel dont souffrent les victimes demanderesses. Cet éclairage théorique contribuera à justifier l’apport du droit international privé dans le contrôle du respect par les STN des normes de droits humains.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Medipix2 (MPX) sont des détecteurs semi-conducteurs au silicium montés sur 256x256 pixels. Chaque pixel a une aire de 55x55μm2. L’aire active d’un détecteur MPX est d’environ 2 cm2. Avec deux modes de détection, un seuil et un temps d’exposition ajustables, leur utilisation peut être optimisée pour une analyse spécifique. Seize de ces détecteurs sont présentement installés dans l’expérience ATLAS (A Toroidal LHC ApparatuS) au CERN (Organisation Européenne pour la Recherche Nucléaire). Ils mesurent en temps réel le champ de radiation dû aux collisions proton-proton, au point d’interaction IP1 (Point d’Interaction 1) du LHC (Grand Collisionneur d’Hadrons). Ces mesures ont divers buts comme par exemple la mesure du champ de neutrons dans la caverne d’ATLAS. Le réseau de détecteurs MPX est complètement indépendant du détecteur ATLAS. Le groupe ATLAS-Montréal s’est intéressé à l’analyse des données récoltées par ces détecteurs pour calculer une valeur de la luminosité du LHC au point de collision des faisceaux, autour duquel est construit le détecteur ATLAS. Cette valeur est déterminée indépendamment de la luminosité mesurée par les divers sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. Avec l’augmentation de la luminosité du LHC les détecteurs MPX les plus proches du point d’interaction détectent un grand nombre de particules dont les traces sont impossibles à distinguer sur les images ("frames") obtenues, à cause de leur recouvrement. Les paramètres de mesure de certains de ces détecteurs ont été optimisés pour des mesures de luminosité. Une méthode d’analyse des données permet de filtrer les pixels bruyants et de convertir les données des images, qui correspondent à des temps d’exposition propres aux détecteurs MPX, en valeur de luminosité pour chaque LumiBlock. Un LumiBlock est un intervalle de temps de mesure propre au détecteur ATLAS. On a validé les mesures de luminosité premièrement en comparant les résultats obtenus par différents détecteurs MPX, et ensuite en comparant les valeurs de luminosité relevées à celles obtenues par les sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité.