265 resultados para Détecteur à seuil
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Les détecteurs à pixels Medipix ont été développés par la collaboration Medipix et permettent de faire de l'imagerie en temps réel. Leur surface active de près de $2\cm^2$ est divisée en 65536~pixels de $55\times 55\um^2$ chacun. Seize de ces détecteurs, les Medipix2, sont installés dans l'expérience ATLAS au CERN afin de mesurer en temps réel les champs de radiation produits par les collisions de hadrons au LHC. Ils seront prochainement remplacés par des Timepix, la plus récente version de ces détecteurs, qui permettent de mesurer directement l'énergie déposée dans chaque pixel en mode \textit{time-over-threshold} (TOT) lors du passage d'une particule dans le semi-conducteur. En vue d'améliorer l'analyse des données recueillies avec ces détecteurs Timepix dans ATLAS, un projet de simulation Geant4 a été amorcé par John Id\'{a}rraga à l'Université de Montréal. Dans le cadre de l'expérience ATLAS, cette simulation pourra être utilisée conjointement avec Athena, le programme d'analyse d'ATLAS, et la simulation complète du détecteur ATLAS. Sous l'effet de leur propre répulsion, les porteurs de charge créés dans le semi-conducteur sont diffusés vers les pixels adjacents causant un dépôt d'énergie dans plusieurs pixels sous l'effet du partage de charges. Un modèle effectif de cette diffusion latérale a été développé pour reproduire ce phénomène sans résoudre d'équation différentielle de transport de charge. Ce modèle, ainsi que le mode TOT du Timepix, qui permet de mesurer l'énergie déposée dans le détecteur, ont été inclus dans la simulation afin de reproduire adéquatement les traces laissées par les particules dans le semi-conducteur. On a d'abord étalonné le détecteur pixel par pixel à l'aide d'une source de $\Am$ et de $\Ba$. Ensuite, on a validé la simulation à l'aide de mesures d'interactions de protons et de particules $\alpha$ produits au générateur Tandem van de Graaff du Laboratoire René-J.-A.-Lévesque de l'Université de Montréal.
Resumo:
Ce mémoire de maîtrise a pour objet une recherche de leptons lourds de quatrième génération avec les données prises par le détecteur ATLAS au LHC dans les collisions pp à $\sqrt{s}$ = 7 TeV et avec une luminosité intégrée de 1.02 fb$^{-1}$. Le processus étudié est la production au singulet de leptons lourds neutres de quatrième génération (N) par la voie du courant chargé suivi de la désintégration du celui-ci en un électron et un boson W : $ pp \to W \to N e \to e W e \to e e \nu_{\ell} \ell $ ($\ell$ = $e$ ou $\mu$), et dépend d'un paramètre de mélange $\xi^{2}$ avec un lepton léger. L'analyse passe par plusieurs étapes, soit l'utilisation de FeynRules pour construire le modèle pour ensuite générer des événements par MadGraph 5.1.2.4. Comme hypothèse de référence, on a choisi une masse de 100 GeV pour le lepton lourd neutre et $\xi_{Ne}^2$ = 0.19, donnant une section efficace de 0.312 pb pour une énergie au centre de masse de 7 TeV. Puisque la génération du signal s'est faite de manière privée à Montréal et non par la collaboration ATLAS, les résultats ne peuvent pas être reconnus officiellement. Sur la base de la simulation, avec des données correspondant à 1 fb$^{-1}$, la limite supérieure attendue à un niveau de confiance de $95\%$ sur la section efficace du signal est de 0.145 pb avec 0.294 pb pour un écart type($\sigma$) et 0.519 pb pour 2$\sigma$. La limite supérieure attendue à un niveau de confiance de $95\%$ sur $\xi_{Ne}^{2}$ de 0.09 pour une masse de 100 GeV.
Resumo:
Afin de contourner la définition usuelle de la pauvreté selon laquelle les individus sont pauvres s’ils sont en deçà d’un certain seuil nous appliquons la méthode floue pour proposer des classes d'indices flous de pauvreté unidimensionnelle et multidimensionnelle basées sur la définition d'une fonction d’appartenance et un seuil de pauvreté par ménage. Nous illustrons également certains de nos concepts proposés à partir d’une enquête réalisée en 1990 sur des ménages tunisiens. Nous cherchons à montrer comment les choix des autorités publiques ou des institutions internationales peuvent se refléter dans ces indices de pauvreté.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
Avec la mise en place de la nouvelle limite maximale de 400 000 cellules somatiques par millilitres de lait (c/mL) au réservoir, le mois d’août 2012 a marqué une étape importante en termes de qualité du lait pour les producteurs de bovins laitiers du Canada. L’objectif de cette étude consistait en l’établissement d’un modèle de prédiction de la violation de cette limite au réservoir à l’aide des données individuelles et mensuelles de comptages en cellules somatiques (CCS) obtenues au contrôle laitier des mois précédents. Une banque de donnée DSA comprenant 924 troupeaux de laitiers québécois, en 2008, a été utilisée pour construire un modèle de régression logistique, adapté pour les mesures répétées, de la probabilité d’excéder 400 000 c/mL au réservoir. Le modèle final comprend 6 variables : le pointage linéaire moyen au test précédent, la proportion de CCS > 500 000 c/mL au test précédent, la production annuelle moyenne de lait par vache par jour, le nombre de jours en lait moyen (JEL) au test précédent ainsi que les proportions de vaches saines et de vaches infectées de manière chronique au test précédant. Le modèle montre une excellente discrimination entre les troupeaux qui excèdent ou n’excèdent pas la limite lors d’un test et pourrait être aisément utilisé comme outil supplémentaire de gestion de la santé mammaire à la ferme.
Resumo:
Les preuves astronomiques stipulent qu'environ 4\% de la densité de masse-énergie de l'univers serait composé d'atomes. Le reste est séparé entre la matière sombre, qui représente 24\% de la densité de masse-énergie, et l'énergie sombre, qui s'accapare les 71\% restant. Le neutralino est une particule prédite par la théorie de la supersymétrie et est un candidat à la composition de la matière sombre. Le Projet d'Identification des Candidats Supersymétriques Sombres (PICASSO) vise à détecter le neutralino en utilisant des détecteurs à gouttelettes de C$_4$F$_{10}$ en surchauffe. Lors du passage d'une particule dans les gouttelettes de C$_4$F$_{10}$, une transition de phase aura lieu si l'énergie déposée est au-delà du seuil prédit par le critère de nucléation d'une transition de phase (théorie de Seitz). L'onde acoustique émise durant la transition de phase est ensuite transformée en impulsion électrique par des capteurs piézoélectriques placés sur le pourtour du détecteur. Le signal est amplifié, numérisé puis enregistré afin de pouvoir être analysé par des outils numériques. L'ouvrage qui suit présente les travaux effectués sur la compréhension des signaux des détecteurs à gouttelettes en surchauffe dans le but d'améliorer la discrimination du bruit de fond. Un détecteur à petites gouttelettes, r $\approx 15\mu m$ a été étudié et comparé à une simulation Monte Carlo. Il s'est avéré que les possibilités de discrimination du bruit de fond provenant des particules alpha étaient réduites pour un détecteur à petites gouttelettes, et ce en accord avec le modèle théorique. Différentes composantes du système d'acquisition ont été testées dont le couplage entre le capteur piézoélectrique et la paroi en acrylique, l'efficacité des capteurs piézoélectriques à gain intégré et les conséquences de la force du gain sur la qualité du signal. Une comparaison avec des résultats de l'expérience SIMPLE (Superheated Instrument for Massive ParticLe Experiments) a été effectuée en mesurant des signaux de détecteurs PICASSO à l'aide d'un microphone électrostatique à électret. Il a été conclu que les détecteurs PICASSO ne parviennent pas à reproduire la discrimination quasi parfaite présentée par SIMPLE.
Resumo:
Medipix2 (MPX) sont des détecteurs semi-conducteurs au silicium montés sur 256x256 pixels. Chaque pixel a une aire de 55x55μm2. L’aire active d’un détecteur MPX est d’environ 2 cm2. Avec deux modes de détection, un seuil et un temps d’exposition ajustables, leur utilisation peut être optimisée pour une analyse spécifique. Seize de ces détecteurs sont présentement installés dans l’expérience ATLAS (A Toroidal LHC ApparatuS) au CERN (Organisation Européenne pour la Recherche Nucléaire). Ils mesurent en temps réel le champ de radiation dû aux collisions proton-proton, au point d’interaction IP1 (Point d’Interaction 1) du LHC (Grand Collisionneur d’Hadrons). Ces mesures ont divers buts comme par exemple la mesure du champ de neutrons dans la caverne d’ATLAS. Le réseau de détecteurs MPX est complètement indépendant du détecteur ATLAS. Le groupe ATLAS-Montréal s’est intéressé à l’analyse des données récoltées par ces détecteurs pour calculer une valeur de la luminosité du LHC au point de collision des faisceaux, autour duquel est construit le détecteur ATLAS. Cette valeur est déterminée indépendamment de la luminosité mesurée par les divers sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. Avec l’augmentation de la luminosité du LHC les détecteurs MPX les plus proches du point d’interaction détectent un grand nombre de particules dont les traces sont impossibles à distinguer sur les images ("frames") obtenues, à cause de leur recouvrement. Les paramètres de mesure de certains de ces détecteurs ont été optimisés pour des mesures de luminosité. Une méthode d’analyse des données permet de filtrer les pixels bruyants et de convertir les données des images, qui correspondent à des temps d’exposition propres aux détecteurs MPX, en valeur de luminosité pour chaque LumiBlock. Un LumiBlock est un intervalle de temps de mesure propre au détecteur ATLAS. On a validé les mesures de luminosité premièrement en comparant les résultats obtenus par différents détecteurs MPX, et ensuite en comparant les valeurs de luminosité relevées à celles obtenues par les sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité.
Resumo:
Dentro del Consejo de Europa se da gran importancia al conocimiento de las lenguas modernas ya que da lugar al acceso a otras culturas y conduce al desarrollo de la comprensión entre los pueblos de Europa. Se presenta un estudio de los documentos elaborados por las distintas comisiones de expertos relacionados con la evolución del aprendizaje-enseñanza de las lenguas modernas. En concreto, se trata de unos estudios que establecen los niveles-umbrales de las distintas lenguas europeas: inglés, francés, español, alemán e italiano.
Resumo:
Avant-proposParfois pour le meilleur et parfois pour le pire, notre monde est un monde globalisé.Nous connaissons actuellement une profonde crise financière à l'échelle planétaire. Fin octobre 2008, le Conseil des chefs de secrétariat des organismes des Nations unies pour la coordination (CEB) déclarait que «la crise que nous traversons aujourd'Hui va avoir des répercussions sur tous les pays, développés et en développement, mais les effets les plus graves seront ressentis essentiellement par ceux qui ne sont pour rien dans le déclenchement de cette crise, à savoir les pauvres des pays en développement».Avant que cette crise n'éclate, Alain Rouquié1 affirmait déjà : «l'état est de retour. Son rôle économique et social pour atténuer les chocs extérieurs et l'impact d'une concurrence sans frontières est à l'ordre du jour».Selon Rouquié, l'ouverture et les réformes structurelles des années quatre-vingt, aussi douloureuses qu'elles aient été, ont eu une utilité fonctionnelle durable. Le problème, dit-il, est que ces réformes ont été accompagnées d'une idéologie opportuniste qui absolutisait le recours à la «main invisible» du marché dans tous les domaines. Ainsi, au nom des nécessités d'une économie mondialisée, l'état, était dénoncé comme un obstacle à la croissance et au progrès. Le fondamentalisme dogmatique et anti-étatique de marché imposait une recette universelle, non discutable et anti-démocratique.L'histoire récente nous démontre qu'il n'existe pas une façon unique de s'intégrer aux courants mondiaux des biens et des capitaux et que l'ensemble des réformes (ouverture, privatisations, dérégulation) considéré à un moment donné comme la seule modalité d'intégration à l'économie mondiale, a été à l'origine d'une série de crises successives en Amérique latine et dans les Caraïbes dont le bilan est étique en termes de réalisations et lourd en frustrations; par ailleurs, les voies hétérodoxes vers la globalisation empruntées par la Chine et par l'inde, par exemple, fortement teintées de caractéristiques idiosyncrasiques en matière de politique économique et dont la direction est restée aux mains des états nationaux affichent des résultats plus positifs.Ce document rend compte des idées centrales de publications récentes de la Commission économique pour l'Amérique latine et les Caraïbes (CEPALC). Les principales sources des thèses dans lesquelles s'inscrivent les idées développées dans les pages qui suivent sont: Mondialisation et développement2, publié en 2002, et Desarrollo productivo en economías abiertas3, publié en 2004. l'information quantitative plus conjoncturelle et les analyses à court terme ont été extraites de différentes éditions des publications annuelles : Balance preliminar de las economías de América Latina y el Caribe, et Estudio económico de América Latina y el Caribe.l'Amérique latine et les Caraïbes a été la région du monde en développement qui a le plus misé sur le programme d'internationalisation et de libéralisation économiques, cristallisé dans ce qui a été connu comme le Consensus de Washington. Les années 1990 ont été marquées par une vague de réformes en ce sens dans tout le continent, dont les résultats, cependant, ont été maigres. Au bilan, certes, des aspects favorables comme l'Atténuation des déséquilibres budgétaires, la fin des processus chroniques d'Hyperinflation qui sévissait dans la région, la modernisation de secteurs spécifiques de l'Appareil de production et l'essor des exportations. Mais dans la colonne des éléments négatifs, on ne peut manquer d'inscrire un taux de croissance faible et volatil, le démantèlement de l'Appareil de production, la hausse du chômage, de l'informalité et de l'inégalité, l'Accroissement de la vulnérabilité extérieure et la dégradation des relations macroéconomiques clés.La région de l'Amérique latine et des Caraïbes est sortie du marasme qui a caractérisé la fin des années 90 et le début de la présente décennie et a retrouvé la voie de la croissance. En effet, l'Année 2007 a été la cinquième année consécutive d'augmentation du produit et, en raison des projections positives pour l'Année 2008, le taux moyen d'augmentation du PIB par habitant pour la période 2003 - 2008 devrait être légèrement supérieur à 3 %, ce qui en ferait la période de croissance la plus marquée et la plus longue depuis 1980.Cette évolution positive a été favorisée par un contexte international propice. l'Augmentation du produit mondial ainsi que l'essor du commerce international, le relèvement du cours international de nombreux produits de base exportés par la région et le faible niveau des taux d'intérêt (situation qui a commencé à se modifier vers le milieu de l'Année 2004 avec le changement de signede la politique monétaire adopté par la Réserve fédérale des états-Unis) se sont avérés favorables à la croissance du PIB ainsi qu'à l'Apparition de caractéristiques inédites dans un processus de croissance soutenue dans la région. C'est ainsi que les pays ont pu mettre fin à la contrainte extérieure, grâce à un excédent continu sur le compte courant résultant à son tour de l'évolution favorable des termes de l'échange, de l'Accélération de la tendance à long terme à la hausse du taux de croissance des exportations et à la forte augmentation des fonds envoyés par les émigrants.Dans le passé, néanmoins, des conjonctures tout aussi positives sur les marchés internationaux n'avaient pas été accompagnées d'une bonne performance régionale. En l'occurrence, l'orientation adoptée en matière de politique économique par de nombreux états de l'Amérique latine et des Caraïbes a joué un rôle déterminant pour tirer parti de facteurs qui, dans un autre contexte, n'auraient pu constituer qu'une autre opportunité perdue. l'obtention d'excédents primaires réitérés dans les comptes publics (grâce à un recouvrement accru et à une attitude prudente dans la gestion des dépenses) ainsi que la volonté de maintenir un taux de change réel compétitif sont des mesures qui, dans le cadre de ce scénario international propice, autorisent un optimisme modéré quant à l'évolution à moyen terme de la région.Cependant, dans un monde en pleine croissance, une gestion macroéconomique ordonnée n'est pas suffisante pour asseoir un processus de développement. l'un des héritages des années 90 est L'hétérogénéité croissante de la structure de production qui s'est traduite par l'exclusion massive de certains agents économiques alors que d'autres progressaient vers la modernisation productive.On peut distinguer aujourd'Hui, dans l'économie latino-américaine, trois grands groupes d'unités productives en fonction de leur degré de formalisation et de leur taille. Le premier groupe est celui composé par les grandes entreprises, dont beaucoup sont transnationales et dont les niveaux de productivité sont proches de la barre internationale mais qui, dans le même temps, n'ont guère de liens avec l'économie locale et présentent une très faible capacité endogène de générer des innovations. Le deuxième groupe englobe les petites et moyennes entreprises du secteur formel qui éprouvent généralement de grandes difficultés d'accès à certains marchés, en particulier au marché financier et à celui des services technologiques, et qui présentent surtout une faible capacité d'articulation productive au sein même du groupe et avec les plus grandes entreprises. Le dernier groupe est celui des micro et petites entreprises du secteur informel qui, en raison de leur structure et de leurs capacités, affichent la productivité relative la plus faible et fonctionnent dans un contexte qui les prive de toute possibilité de développement et d'apprentissage. En outre, les travailleurs salariés et les chefs de micro-entreprises de ce secteur n'ont aucune forme de protection sociale contre les risques qui les menacent, incluant la perte d'emploi ou de revenus.Le développement productif de cette véritable économie à trois vitesses passe par l'Adoption de politiques publiques volontaristes propres à niveler le terrain de jeu grâce à une structure différenciée d'aides et d'incitations.l'Administration de la macroéconomie et les politiques productives ne représentent toutefois qu'une partie des initiatives nécessaires pour jeter les bases d'un processus de développement économique à long terme. Il est indispensable de réparer la déchirure du tissu social qui est l'un des effets secondaires les plus graves de l'expérience de politique mise en oeuvre dans les années 90. l'Aggravation de L'hétérogénéité productive et de l'inégalité, ainsi que l'Augmentation de l'informalité et du chômage ne se traduisent pas seulement en pertes statiques et dynamiques en termes de niveau du produit et de taux de croissance à long terme; elles constituent également une menace latente à la cohabitation démocratique et à l'unité des perspectives et d'objectifs qui doit accompagner les processus de changement historique inévitablement impliqués dans le développement économique.C'est pourquoi la CEPALC a proposé la création d'un pacte de cohésion sociale fondé sur l'Adoption d'engagements réciproques entre les différents secteurs sociaux et l'état afin de jeter les bases d'un avenir inclusif du point de vue social dans la région. Ce pacte repose sur plusieurs piliers: la cohérence vis-à-vis des fondements de la politique économique, la création d'emplois, la protection sociale, ainsi que l'éducation et la formation professionnelle pour l'ensemble de la population.Depuis l'époque de Celso Furtado et Raúl Prebisch, des concepts comme le schéma centre - périphérie et l'étude des tendances à long terme des termes de l'échange, l'importance de la contrainte extérieure pour la stabilité macroéconomique des économies moins développées, la nécessité de promouvoir, à partir de l'état, la croissance de certaines activités ou de certains secteurs productifs considérés comme stratégiques ainsi que le lien entre le phénomène inflationniste et l'Action distributive ont nourri le débat intellectuel dans le continent et inspiré les responsables de la prise de décision de différents gouvernements et à différentes périodes.La synthèse de documents récents présentée ici prétend suivre cette même voie de construction d'une pensée locale qui se découvre universelle en révélant les particularités de son contexte et qui trouve sa justification dans la volonté de contribuer à l'émergence d'acteurs sociaux et de réalités nationales souvent oubliés.Devant la profondeur de la crise d'origine financière qui touche toute la planète et dont les répercussions les plus graves seront ressenties par les pauvres des pays en développement, nous rejoignons Rouquié pour dire, au sens vertueux, que l'état est de retour pour s'acquitter des tâches que le marché a été, à lui seul, incapable de réaliser.Alicia BárcenaSecrétaire exécutiveCommission économique pour l'Amériquelatine et les Caraïbes (CEPALC)RésuméCe livre de la CEPALC est publié conjointement avec la Coopération française et contient deux essais sur l'Amérique latine et les Caraïbes où sont essentiellement abordés les défis qui se posent à la région au seuil de ce millénaire. Ces premières années du millénaire se caractérisent d'ores et déjà par une conjoncture économique difficile dont il est encore difficile de mesurer les conséquences.Le premier article rédigé par des experts de la CEPALC rend compte des idées centrales de publications récentes de la Commission. Les thèses dans lesquelles s'inscrivent les idées développées dans les pages qui suivent émanent des publications ci-après: Mondialisation et développement, publié en 2002, et Desarrollo productivo en economías abiertas, publié en 2004. l'information quantitative plus conjoncturelle et les analyses à court terme ont été extraites de différentes éditions des publications annuelles: Balance preliminar de las economías de América Latina y el Caribe, et Estudio económico de América Latina.Le deuxième article, rédigé par Alain Rouquié, expert en questions latino-américaines et président de la Maison de l'Amérique latine à Paris, propose, selon les propres dires de l'Auteur, une série de réflexions libres sur l'Amérique latine.La publication conjointe de ces deux essais met en relief une complémentarité de perspectives issues des deux hémisphères du globe, ce qui confère à cet ouvrage un intérêt tout particulier.
Resumo:
Le document aborde le débat sur le changement structurel et la place des femmes dans la société de l’information, ainsi que la capacité de développement de leur autonomie dans le cadre de la mise en place d’un nouveau paradigme technologique. Il dresse un bilan de la situation des femmes sur le marché de l’emploi et passe en revue, sur la base des données des enquêtes disponibles, les indicateurs d’accès à et d’utilisation de l’Internet de façon à mesurer les écarts existants entre hommes et femmes dans différentes sphères sociales et géographiques.