914 resultados para Analyses errors


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objet de cette intervention présentée pour partie en novembre 2001 au colloque « Droit de l’Internet : approches européennes et internationales » est d’étudier quel est le mode de régulation, sinon le plus efficace, du moins le plus justifié, dans le « cybermonde ». On y décrit le contexte général de la problématique de la régulation de l’Internet dans le but d’évaluer l’adéquation des modes institutionnels utilisés. On rappelle ensuite quelles sont les instances qui, d’ores et déjà, sont chargées de tout ou de partie de la « gestion » du réseau, et qui, en pratique, assurent une fonction de régulation. Suivent des propositions relatives à l’organisation, dans ce contexte, des pouvoirs publics français.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au niveau méthodologique, ce travail innove en combinant plusieurs moyens d'observation complémentaires sur le processus d'écriture et sur le processus de correction. Les observations qualitatives ainsi recueillies sont retranscrites en les combinant selon l'ordre chronologique d'apparition, puis elles sont traitées et analysées sous le logiciel QDA Miner.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Problématique : La majorité des études publiées sur la réhabilitation par mise en charge immédiate de deux implants non jumelés avec une prothèse totale mandibulaire de recouvrement n’ont rapporté que des mesures cliniques objectives et très peu ont évalué les mesures centrées sur le patient, et ce, avec des erreurs de mesure. Aucune étude n’a évalué les attentes des patients vis-à-vis d'un tel protocole. Objectifs : Évaluer les attentes, le niveau de satisfaction ainsi que la qualité de vie reliée à la santé bucco-dentaire des édentés complets suite à un protocole de mise en charge immédiate. Méthodologie : Cet essai clinique de phase 1 utilise un design pré-post afin d’évaluer les mesures centrées sur le patient. Dix-huit individus, complètement édentés et âgés en moyenne de 62,39 ± 7,65 ans, ont reçu une prothèse totale mandibulaire de recouvrement sur deux implants non jumelés suite à un protocole de mise en charge immédiate, conjointement à une prothèse totale conventionnelle maxillaire. Un instrument adapté pour mesurer leurs attentes à l’aide d’échelles visuelles analogues, le questionnaire « McGill Denture Satisfaction Instrument » ainsi que le questionnaire OHIP-20 ont été remis aux patients avant de procéder aux traitements (T0), ainsi qu’aux rendez-vous de suivi à 2 semaines (T1), 1 mois (T2) et 4 mois (T3). De plus, l’inventaire de personnalité révisé (NÉO PI-R) ainsi qu’un questionnaire sociodémographique ont été remplis par les participants. Les « change scores » ont été calculés puis des tests non paramétriques et des analyses de variances en mesures répétées suivies de comparaisons par paires ont été utilisés afin d’analyser les données recueillies. La taille d’effet a été estimée. Résultats : Les participants avaient différentes attentes par rapport à la mise en charge immédiate. Certains s’attendaient à un effet positif à court terme par rapport à leur apparence esthétique (83,3 %) et à leur vie sociale (55,7 %), alors que d’autres avaient des craintes envers leur confort (5,6 %), leur habileté à mastiquer (11,1 %) et à nettoyer leur prothèse inférieure (11,1 %). À 4 mois, le protocole de mise en charge immédiate avait rencontré la majorité des attentes des patients par rapport à l’esthétique (94.4 %), la mastication (83.3 %), la phonétique (61.1 %), le confort (94.4 %), l’hygiène (88.9 %) et leur vie sociale (88.9 %). Une amélioration statistiquement significative de la satisfaction en générale, du confort, de l’esthétique, de la stabilité de la prothèse inférieure et de l’habileté à mastiquer a été notée à 2 semaines (p<0,001). Également, les comparaisons par paires ont révélé une diminution statistiquement significative du score total de l’OHIP-20 (p < 0,001) de même que la majorité des domaines de l’OHIP (p < 0.01), sauf pour l’handicap social qui n’a diminué significativement qu’après 1 mois (p = 0.01). Ces changements (pour la satisfaction et la qualité de vie) sont restés stables au cours des suivis subséquents. Indépendamment des traits de personnalité et des variables sociodémographiques, le protocole immédiat a satisfait 94,4 % des participants et a amélioré leur qualité de vie avec une large magnitude d’effet (d = 1.9; p < 0.001). Bien que deux patients aient perdu des implants au cours du traitement, 100 % des participants étaient d’accord pour recommander cette procédure à leurs pairs. Conclusions: Le protocole de mise en charge immédiate semble satisfaire les patients quelles que soient leurs attentes. Le protocole MCI peut améliorer, à court terme, la qualité de vie des patients totalement édentés. Les résultats prometteurs de la phase 1 devraient être corroborés lors de la 2e phase de cette étude.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de l'Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La littérature contient une abondance d’information sur les approches de design impliquant les utilisateurs. Bien que les chercheurs soulèvent de nombreux avantages concernant ces approches, on en sait peu sur ce que les concepteurs des entreprises en pensent. Ce projet a pour but de connaître les perceptions des concepteurs de produits quant aux outils de design participatif puis, d’identifier les opportunités et limites qu’ils évoquent à ce sujet, et finalement, de faire des suggestions d’outils qui faciliteraient l’introduction du design participatif dans un processus de design existant. Après avoir fait un survol du domaine du design participatif et de ses outils, six cas sont étudiés au moyen d’entrevues semi-dirigées conduites auprès de concepteurs de produits. Les données sont analysées à l’aide de cartes cognitives. En ce qui concerne les outils de design participatif, les participants rencontrés perçoivent un accès direct aux besoins des utilisateurs et la possibilité de minimiser les erreurs en début de processus donc, d’éviter les modifications coûteuses qu’elles auraient entraînées. Les obstacles perçus par les concepteurs sont principalement liés à la résistance au changement, à la crainte de laisser créer ou décider les utilisateurs, ainsi qu’au manque de temps et de ressources de l’équipe. Finalement, sur la base des informations collectées, nous suggérons quatre outils de design participatif qui semblent plus intéressants : l’enquête contextuelle, les sondes, les tests de prototypes et l’approche « lead user ». Pour faire suite à ce travail, il serait intéressant d’élaborer un protocole de recherche plus exhaustif pour augmenter la portée des résultats, ou encore, d’appliquer le design participatif, dans une entreprise, afin d’explorer la satisfaction des gens quant aux produits conçus, les effets collatéraux sur les équipes impliquées, l’évolution des prototypes ou le déroulement des ateliers.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Institut d’études politiques d'Aix-en-Provence, École doctorale de Sciences Po, Programme doctoral en sciences de l’information et de la communication

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avec la sécularisation, la laïcité et la diversité croissantes de la société québécoise, la place de la religion en général et du catholicisme en particulier se sont vues remises en question. Cette situation a d’ailleurs mené à la mise en place de deux commissions : l’une sur la place de la religion à l’école (1999) et l’autre sur les pratiques d’accommodements reliées aux différences culturelles (2008). Ces deux commissions auront fourni énormément d’informations sur les rapports qu’entretiennent encore les Québécois avec le catholicisme. Cette recherche a donc pour but de faire le point sur certains aspects du catholicisme au Québec à partir d’une perspective reposant principalement sur des instruments heuristiques issus des écrits signés « Jacques Derrida ». Pour ce faire, nous nous appuierons sur les travaux du Groupe de travail sur la religion à l’école, de la consultation générale sur la place de la religion à l’école et de la commission de consultation sur les pratiques d’accommodement reliées aux différences culturelles. Nous posons comme hypothèse que de manière générale, les Québécois entretiennent avec le catholicisme, des rapports « archivaux », c’est-à-dire conditionnés par des perceptions de ce dernier informées par son passé, plutôt que par son présent. De plus, ces perceptions du catholicisme, probablement développées dans le sillage de la Révolution tranquille et peut-être même un peu avant, nourriraient l’existence de « spectres » qui viendraient hanter les rapports des Québécois à tout ce qui touche le religieux et la diversité culturelle. En ce sens, il s’agit d’une dimension essentielle de ce que nous appellerions la « postmodernité » religieuse québécoise. Pour illustrer ce propos, nous mènerons une analyse de contenu documentaire. Premièrement, nous procéderons à l’analyse thématique de centaines de documents (rapports de recherche, rapports officiels, mémoires) déposés lors de ces débats. Le logiciel QDA Miner permettra d’effectuer une analyse documentaire en identifiant les passages thématiques reliés à la recherche. Nous procéderons ensuite à une analyse plus fine de ces extraits sélectionnés à partir de perspectives philosophiques provenant principalement du philosophe Jacques Derrida.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’hypothèse générale de ce projet soutient que le système moteur doit performer des transformations sensorimotrices afin de convertir les entrées sensorielles, concernant la position de la cible à atteindre, en commande motrice, afin de produire un mouvement du bras et de la main vers la cible à atteindre. Ce type de conversion doit être fait autant au niveau de la planification du mouvement que pour une éventuelle correction d’erreur de planification ou d’un changement inopiné de la position de la cible. La question de recherche du présent mémoire porte sur le ou les mécanismes, circuits neuronaux, impliqués dans ce type de transformation. Y a-t-il un seul circuit neuronal qui produit l’ensemble des transformations visuomotrices entre les entrées sensorielles et les sorties motrices, avant l’initiation du mouvement et la correction en temps réel du mouvement, lorsqu’une erreur ou un changement inattendu survient suite à l’initiation, ou sont-ils minimalement partiellement indépendants sur le plan fonctionnel? L’hypothèse de travail suppose qu’il n’y ait qu’un seul circuit responsable des transformations sensorimotrices, alors l’analyse des résultats obtenus par les participants devrait démontrer des changements identiques dans la performance pendant la phase de planification du mouvement d’atteinte et la phase de correction en temps réel après l’adaptation à des dissociations sensorimotrices arbitraires. L’approche expérimentale : Dans la perspective d’examiner cette question et vérifier notre hypothèse, nous avons jumelé deux paradigmes expérimentaux. En effet, les mouvements d’atteinte étaient soumis à une dissociation visuomotrice ainsi qu’à de rares essais composés de saut de cible. L’utilisation de dissociation visuomotrice permettait d’évaluer le degré d’adaptation des mécanismes impliqués dans le mouvement atteint. Les sauts de cible avaient l’avantage de permettre d’examiner la capacité d’adaptation à une dissociation visuomotrice des mécanismes impliqués dans la correction du mouvement (miroir : sur l’axe y, ou complète : inversion sur les axes x et y). Les résultats obtenus lors des analyses effectuées dans ce mémoire portent exclusivement sur l’habileté des participants à s’adapter aux deux dissociations visuomotrices à la première phase de planification du mouvement. Les résultats suggèrent que les mécanismes de planification du mouvement possèdent une grande capacité d’adaptation aux deux différentes dissociations visuomotrices. Les conclusions liées aux analyses présentées dans ce mémoire suggèrent que les mécanismes impliqués dans la phase de planification et d’initiation du mouvement parviennent relativement bien à s’adapter aux dissociations visuomotrices, miroir et inverse. Bien que les résultats démontrent une certaine distinction, entre les deux groupes à l’étude, quant aux délais nécessaires à cette adaptation, ils illustrent aussi un taux d’adaptation finale relativement similaire. L’analyse des réponses aux sauts de cible pourra être comparée aux résultats présentés dans ce mémoire afin de répondre à l’hypothèse de travail proposée par l’objectif initial de l’étude.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La musique est universelle et le chant est le moyen d’expression musicale le plus accessible à tous. Les enfants chantent spontanément entre un an et un an et demi (Ostwald, 1973). Pourtant, le développement de cette habileté est très peu étudié en neuropsychologie et ce, malgré le fait qu’elle représente une immense source d’informations sur le traitement de la musique par le cerveau. Les études proposées ici visaient à mieux comprendre le développement normal et pathologique des fonctions perceptives et vocales. Dans un premier temps, une étude sur le chant normal chez les enfants de 6 à 11 ans est présentée. Le développement du chant de 79 enfants d’âge scolaire y est analysé de manière systématique et objective. Cette étude se penche plus particulièrement sur l’influence de l’âge ainsi que d’autres facteurs (le genre, la perception musicale, la présence de paroles et la présence d’un accompagnement vocal) sur la qualité du chant. Les jeunes participants ont chanté une chanson familière dans différentes conditions, soit avec et sans paroles, après un modèle ainsi qu’à l’unisson avec ce dernier. Suite à l’analyse acoustique des performances, différentes variables mélodiques et rythmiques telles que le nombre d’erreurs d’intervalles, le nombre d’erreurs de contours, la taille des déviations d’intervalles, le nombre d’erreurs rythmiques, la taille des déviations temporelles et le tempo, ont été calculés. Les résultats montrent que certaines habiletés de base liées au chant se développent toujours après 6 ans. Toutefois, le rythme est maîtrisé plus tôt, et les enfants d’âges scolaires réussissent parfois mieux que les adultes sur le plan rythmique. De plus, il est plus difficile pour les enfants de chanter avec des ii paroles que sur une syllabe et chanter à l’unisson représente un défi plus grand que chanter après un modèle. Par ailleurs, le nombre d’erreurs de contours, d’intervalles et de rythme, de même que la taille des erreurs rythmiques, sont liés à nos mesures de perception musicale. La seconde étude présente le premier cas documenté d’amusie congénitale chez l’enfant. Elle implique l’analyse de la perception musicale et du chant d’une fillette de 10 ans nous ayant été référée par son directeur de chorale. De sévères déficits ont été relevés chez elle et un diagnostic d’amusie congénitale fut posé. En effet, ses résultats aux tests visant à évaluer sa perception musicale indiquent d’importantes difficultés tant sur le plan de la discrimination des différences mélodiques et rythmiques, qu’au niveau de la mémoire des mélodies. La fillette présente des lacunes claires quant à la perception des fines différences de hauteurs. L’analyse des réponses cérébrales en potentiels évoqués suggère que l’enfant souffre de déficits situés tôt au cours des processus de traitement auditif, tel que démontré par l’absence de négativité de discordance (MMN). Le chant de la jeune fille est lui aussi déficitaire, particulièrement en ce qui concerne le nombre d’erreurs d’intervalles et leurs tailles. En conclusion, nos études montrent que les aptitudes pour le chant sont toujours en développement au cours des premières années de scolarisation. Ce développement peut être entravé par la présence d’un déficit lié spécifiquement à la perception musicale. Pour la première fois, l’amusie congénitale, sera décrite chez l’enfant.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduction : Bien que la pratique de l’usage de la warfarine se soit améliorée au cours de la dernière décennie, aucune recommandation claire basée sur le dosage de l’amiodarone n’a été jusqu’à maintenant standardisée, ce qui représente un grand obstacle pour les cliniciens. La warfarine a un index thérapeutique étroit nécessitant un suivi régulier et un ajustement individuel de la posologie, ceci afin de déterminer la dose thérapeutique, tout en prévenant les effets secondaires qui pourraient être fatals dans certains cas. La variabilité interindividuelle de la réponse à la warfarine dépend de plusieurs facteurs, dont l’âge, le sexe, le poids, l’alimentation et l’interaction médicamenteuse, mais ceux-ci n’expliquent que partiellement les différences de sensibilité à la warfarine. Les polymorphismes des gènes CYP2C9 et VKORC1 jouent un rôle important dans la réponse à la warfarine et expliquent jusqu’à 50% de la variabilité des doses. L’utilisation d’antiarythmiques telle l’amiodarone peut accentuer considérablement l’effet de la warfarine et nécessite généralement une diminution de 30 à 50% de la dose de la warfarine. Aucune étude à ce jour n’a tenté de déterminer l’utilité du génotypage des polymorphismes des gènes CYP2C9 et VKORC1 chez les patients sous traitement combiné de warfarine et amiodarone. Objectif : Notre étude a pour objectif tout d’abord de déterminer si des facteurs génétiques influencent la première dose de stabilisation de la warfarine chez les patients en FA après l’introduction de l’amiodarone. Nous allons également tenter de confirmer l’association préalablement rapportée entre les facteurs génétiques et la première dose de stabilisation de warfarine dans notre population à l’étude. Méthodes : Un devis de cohorte rétrospective de patients qui fréquentaient la clinique d'anticoagulothérapie de l’Institut de cardiologie de Montréal entre le 1er janvier 2007 et le 29 février 2008 pour l’ajustement de leur dose selon les mesures d'INR. Au total, 1615 patients ont été recrutés pour participer à cette étude de recherche. Les critères de sélection des patients étaient les patients avec fibrillation auriculaire ou flutter, ayant un ECG documenté avec l'un de ces deux diagnostics et âgé de moins de 67 ans, en raison d’une moindre comorbidité. Les patients souffrant d’insuffisance hépatique chronique ont été écartés de l’étude. Tous les patients devaient signer un consentement éclairé pour leur participation au projet et échantillon de sang a été pri pour les tests génétiques. La collecte des données a été effectuée à partir du dossier médical du patient de l’Institut de cardiologie de Montréal. Un formulaire de collecte de données a été conçu à cet effet et les données ont ensuite été saisies dans une base de données SQL programmée par un informaticien expert dans ce domaine. La validation des données a été effectuée en plusieurs étapes pour minimiser les erreurs. Les analyses statistiques utilisant des tests de régression ont été effectuées pour déterminer l’association des variants génétiques avec la première dose de warfarine. Résultats : Nous avons identifié une association entre les polymorphismes des gènes CYP2C9 et VKORC1 et la dose de la warfarine. Les polymorphismes génétiques expliquent jusqu’à 42% de la variabilité de dose de la warfarine. Nous avons également démontré que certains polymorphismes génétiques expliquent la réduction de la dose de warfarine lorsque l’amiodarone est ajoutée à la warfarine. Conclusion : Les travaux effectués dans le cadre de ce mémoire ont permis de démontrer l’implication des gènes CYP2C9 et VKORC1 dans la réponse au traitement avec la warfarine et l’amiodarone. Les résultats obtenus permettent d’établir un profil personnalisé pour réduire les risques de toxicité, en permettant un dosage plus précis de la warfarine pour assurer un meilleur suivi des patients. Dans le futur, d’autres polymorphismes génétiques dans ces gènes pourraient être évalués pour optimiser davantage la personnalisation du traitement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Medipix2 (MPX) sont des détecteurs semi-conducteurs au silicium montés sur 256x256 pixels. Chaque pixel a une aire de 55x55μm2. L’aire active d’un détecteur MPX est d’environ 2 cm2. Avec deux modes de détection, un seuil et un temps d’exposition ajustables, leur utilisation peut être optimisée pour une analyse spécifique. Seize de ces détecteurs sont présentement installés dans l’expérience ATLAS (A Toroidal LHC ApparatuS) au CERN (Organisation Européenne pour la Recherche Nucléaire). Ils mesurent en temps réel le champ de radiation dû aux collisions proton-proton, au point d’interaction IP1 (Point d’Interaction 1) du LHC (Grand Collisionneur d’Hadrons). Ces mesures ont divers buts comme par exemple la mesure du champ de neutrons dans la caverne d’ATLAS. Le réseau de détecteurs MPX est complètement indépendant du détecteur ATLAS. Le groupe ATLAS-Montréal s’est intéressé à l’analyse des données récoltées par ces détecteurs pour calculer une valeur de la luminosité du LHC au point de collision des faisceaux, autour duquel est construit le détecteur ATLAS. Cette valeur est déterminée indépendamment de la luminosité mesurée par les divers sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. Avec l’augmentation de la luminosité du LHC les détecteurs MPX les plus proches du point d’interaction détectent un grand nombre de particules dont les traces sont impossibles à distinguer sur les images ("frames") obtenues, à cause de leur recouvrement. Les paramètres de mesure de certains de ces détecteurs ont été optimisés pour des mesures de luminosité. Une méthode d’analyse des données permet de filtrer les pixels bruyants et de convertir les données des images, qui correspondent à des temps d’exposition propres aux détecteurs MPX, en valeur de luminosité pour chaque LumiBlock. Un LumiBlock est un intervalle de temps de mesure propre au détecteur ATLAS. On a validé les mesures de luminosité premièrement en comparant les résultats obtenus par différents détecteurs MPX, et ensuite en comparant les valeurs de luminosité relevées à celles obtenues par les sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des études supérieures en vue de l’obtention du grade de maîtrise en science (M. Sc.) en criminologie, option criminalistique et information

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise en criminologie, option criminalistique et information.