748 resultados para Échelles de mesure
Resumo:
Au Québec, la Loi 113 a été adoptée en 2002 pour réduire l’incidence et les conséquences des événements indésirables survenus en cours de soins de santé. Cette loi oblige à effectuer plusieurs modifications tant au niveau administratif que clinique, notamment, la création de comités de gestion du risque, l’établissement de politiques pour la divulgation aux patients et la déclaration systématique des événements indésirables dans les institutions hospitalières. Cependant, la capacité de ces établissements à implanter les mesures requises par la loi a été mise en doute par certains auteurs. L’objectif de cette thèse a été d’étudier le processus d’implantation de la loi 113 à partir d’un cadre théorique intégrant les approches dites de développement organisationnel, institutionnelle et politique. Pour cela, nous avons mené une étude de cas multiples, chaque cas étant représenté par un type d’hôpital qualifié dans le contexte de notre étude de « petit », « grand » et « universitaire ». Les procédures de cueillette des données ont consisté en des entrevues avec des administrateurs et des professionnels de santé, des séances d’observation de comités de gestion des risques, et une analyse de documents issus des secteurs administratifs de chaque institution. Les résultats suggèrent une implantation progressive et variable de la loi d’un hôpital à l’autre et la présence de conflits entre les pratiques professionnelles ou organisationnelles et les nouvelles normes légales. Ces dernières semblent avoir été adoptées au niveau administratif, tandis que les normes professionnelles et organisationnelles ont continué à prédominer au niveau clinique, une situation ayant entraîné un climat de méfiance entre les milieux administratif et clinique, plus particulièrement parmi les médecins de chaque établissement hospitalier. Les résultats de notre étude indiquent également que les stratégies ayant le plus contribué au changement résultent d’une forte légitimité et du leadership des principaux agents de changement, comme la gouverne et le gestionnaire de risque, et de la gestion avisée de l’environnement organisationnel. Cependant, malgré les efforts continus mobilisés au sein de chaque établissement pour implanter la loi, on a pu constater la persistance d’une résistance de certains acteurs clefs. En conclusion, l’implication et la contribution des détenteurs d’enjeux internes et externes de l’organisation sont nécessaires pour aboutir à une vision commune et aligner les différentes interventions afin d’assurer le succès de l’implantation de la loi.
Resumo:
L’instrument le plus fréquemment utilisé pour la mesure de l’amplitude de mouvement du coude est le goniomètre universel. Or celui-ci ne fait pas l’unanimité : plusieurs auteurs remettent en question sa fiabilité et validité. Cette étude détaille donc, en trois étapes, une alternative beaucoup plus précise et exacte : une méthode radiographique de mesure. Une étude de modélisation a d’abord permis de repérer les sources d’erreur potentielles de cette méthode radiographique, à ce jour jamais utilisée pour le coude. La méthode a ensuite servi à évaluer la validité du goniomètre. À cette fin, 51 volontaires ont participé à une étude clinique où les deux méthodes ont été confrontées. Finalement, la mesure radiographique a permis de lever le voile sur l’influence que peuvent avoir différents facteurs démographiques sur l’amplitude de mouvement du coude. La méthode radiographique s’est montrée robuste et certaines sources d’erreurs facilement évitables ont été identifiées. En ce qui concerne l’étude clinique, l’erreur de mesure attribuable au goniomètre était de ±10,3° lors de la mesure du coude en extension et de ±7,0° en flexion. L’étude a également révélé une association entre l’amplitude de mouvement et différents facteurs, dont les plus importants sont l’âge, le sexe, l’IMC et la circonférence du bras et de l’avant-bras. En conclusion, l’erreur du goniomètre peut être tolérée en clinique, mais son utilisation est cependant déconseillée en recherche, où une erreur de mesure de l’ordre de 10° est inacceptable. La méthode radiographique, étant plus précise et exacte, représente alors une bien meilleure alternative.
Resumo:
Afin de contourner la définition usuelle de la pauvreté selon laquelle les individus sont pauvres s’ils sont en deçà d’un certain seuil nous appliquons la méthode floue pour proposer des classes d'indices flous de pauvreté unidimensionnelle et multidimensionnelle basées sur la définition d'une fonction d’appartenance et un seuil de pauvreté par ménage. Nous illustrons également certains de nos concepts proposés à partir d’une enquête réalisée en 1990 sur des ménages tunisiens. Nous cherchons à montrer comment les choix des autorités publiques ou des institutions internationales peuvent se refléter dans ces indices de pauvreté.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
La variabilité génétique actuelle est influencée par une combinaison complexe de variables historiques et contemporaines. Dès lors, une interprétation juste de l’impact des processus actuels nécessite une compréhension profonde des processus historiques ayant influencé la variabilité génétique. En se basant sur la prémisse que des populations proches devraient partager une histoire commune récente, nombreuses études, effectuées à petite échelle spatiale, ne prennent pas en considération l’effet potentiel des processus historiques. Cette thèse avait pour but de vérifier la validité de cette prémisse en estimant l’effet de la dispersion historique à grande et à petite échelle spatiale. Le premier volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la répartition des organismes à grande échelle spatiale. Pour ce faire, les moules d’eau douce du genre flotteurs (Pyganodon spp.) ont servies de modèle biologique. Les moules d'eau douce se dispersent principalement au stade larvaire en tant que parasites des poissons. Une série de modèles nuls ont été développés pour évaluer la co-occurrence entre des parasites et leurs hôtes potenitels. Les associations distinctes du flotteur de Terre-Neuve (P. fragilis) avec des espèces de poissons euryhalins permettent d’expliquer sa répartition. Ces associations distinctes ont également pu favoriser la différenciation entre le flotteur de Terre-Neuve et son taxon soeur : le flotteur de l’Est (P. cataracta). Cette étude a démontré les effets des associations biologiques historiques sur les répartitions à grande échelle spatiale. Le second volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la variabilité génétique, à petite échelle spatiale. Cette fois, différentes populations de crapet de roche (Ambloplites rupestris) et de crapet soleil (Lepomis gibbosus), dans des drainages adjacents ont servies de modèle biologique. Les différences frappantes observées entre les deux espèces suggèrent des patrons de colonisation opposés. La faible diversité génétique observée en amont des drainages et la forte différenciation observée entre les drainages pour les populations de crapet de roche suggèrent que cette espèce aurait colonisé les drainages à partir d'une source en aval. Au contraire, la faible différenciation et la forte diversité génétique observées en amont des drainages pour les populations de crapet soleil suggèrent une colonisation depuis l’amont, induisant du même coup un faux signal de flux génique entre les drainages. La présente étude a démontré que la dispersion historique peut entraver la capacité d'estimer la connectivité actuelle, à petite échelle spatiale, invalidant ainsi la prémisse testée dans cette thèse. Les impacts des processus historiques sur la variabilité génétique ne sont pas faciles à démontrer. Le troisième volet de cette thèse avait pour but de développer une méthode permettant de les détecter. La méthode proposée est très souple et favorise la comparaison entre la variabilité génétique et plusieurs hypothèses de dispersion. La méthode pourrait donc être utilisée pour comparer des hypothèses de dispersion basées sur le paysage historique et sur le paysage actuel et ainsi permettre l’évaluation des impacts historiques et contemporains sur la variabilité génétique. Les performances de la méthode sont présentées pour plusieurs scénarios de simulations, d’une complexité croissante. Malgré un impact de la différentiation globale, du nombre d’individus ou du nombre de loci échantillonné, la méthode apparaît hautement efficace. Afin d’illustrer le potentiel de la méthode, deux jeux de données empiriques très contrastés, publiés précédemment, ont été ré analysés. Cette thèse a démontré les impacts de la dispersion historique sur la variabilité génétique à différentes échelles spatiales. Les effets historiques potentiels doivent être pris en considération avant d’évaluer les impacts des processus écologiques sur la variabilité génétique. Bref, il faut intégrer l’évolution à l’écologie.
Resumo:
A large part of the work done by women is not counted in the gross national product (GDP) of nations. Which type of work are we referring to? Unpaid work; also commonly called domestic work. Because all the services produced by households for their own consumption are not subject to monetary exchange, they are excluded from de production boundary defined by the United Nations System of National Accounts (SNA). In doing so, this key statistics, inspired by the Keynesian school of thoughts, shows an accepted iniquity in the quantification of the product since women’s productive contribution within the households is not taken into account. In other words, national accounts are not gender neutral. In fact, this breach of a fundamental ethical rule which is equity towards gender inequalities is just the reflection of a social conception that prevails within the SNA since its creation, namely that domestic work is not considered as work. It is therefore essential to quantify women’s unpaid work, a concern that has long been the preserve of feminist activists even though; this should go beyond feminists considerations. This article shows how the issue of measuring unpaid work on a broader prospective is relevant on both ethical and economic fronts. The recognition of this production factor as a macroeconomic variable is indeed fundamental to get a more complete understanding and assessment of the economy. Valorization of unpaid work would also allow women to claim better retribution, or at least, to expect an effective social recognition of their actions and efforts and in the end would contribute to the establishment of greater social justice.
Resumo:
Cette formation vous permettra de vous familiariser avec la démarche de la pratique fondée sur des données probantes en sciences de la santé. Les principaux concepts et outils seront présentés. À la fin de cette conférence vous serez en mesure de : structurer une question clinique PICO, identifier les sources documentaires pertinentes et configurer PubMed en fonction d’un meilleur accès aux données probantes, reconnaître les types d’études cliniques et comprendre les niveaux de preuve et échelles de recommandation. La présentation sera suivie d’une discussion sur les moyens de soutenir l’utilisation des données probantes dans votre institution.
Resumo:
Cette thèse présente à la fois des résultats de simulations numériques en plus de ré- sultats expérimentaux obtenus en laboratoire sur le rôle joué par les défauts de structure dans le silicium amorphe. Nos travaux de simulation numérique furent réalisés avec une nouvelle méthode de simulation Monte-Carlo cinétique pour décrire l’évolution tempo- relle de modèles de silicium amorphe endommagés sur plusieurs échelles de temps jus- qu’à une seconde à la température pièce. Ces simulations montrent que les lacunes dans le silicium amorphe sont instables et ne diffusent pas sans être détruites. Nous montrons également que l’évolution d’un modèle de silicium amorphe endommagé par une colli- sion ionique lors d’un recuit peut être divisée en deux phases : la première est dominée exclusivement par la diffusion et la création/destruction de défauts de liaison, alors que la deuxième voit les créations/destructions de liens remplacées par des échanges de liens entre atomes parfaitement coordonnés. Les défauts ont aussi un effet sur la viscosité du silicium amorphe. Afin d’approfondir cette question, nous avons mesuré la viscosité du silicium amorphe et du silicium amorphe hydrogéné sous l’effet d’un faisceau d’ions. Nous montrons que la variation de la viscosité dans les deux matériaux est différente : le silicium amorphe hydrogéné a une viscosité constante en fonction de la fluence des ions alors que le silicium amorphe pur a une viscosité qui augmente de façon linéaire. Pour de faibles fluences, la viscosité du silicium hydrogéné est plus grande que la viscosité sans hydrogène. La présence d’hydrogène diminue également l’amplitude de la variation logarithmique de la contrainte observée lors de la relaxation à la température de la pièce.
Resumo:
Objectif : Les auteurs s’intéressant à la relation entre le déni, la minimisation et les distorsions cognitives ont tous utilisé des méthodes et des définitions différentes pour décrire ces concepts, entrainant une importante variabilité des résultats. La recherche actuelle a donc pour objectif de clarifier la mesure du déni, de la minimisation et des distorsions cognitives. Méthode : Les participants étaient 313 détenus masculins ayant complété le programme national de traitement pour délinquants sexuels du Service correctionnel du Canada entre 2000 et 2004. Ces individus ont complété une série de tests psychométriques avant et après leur participation au programme, dont le SOARS et les échelles de Bumby. L’analyse des données a suivi le processus de validation de construit établi par Nunnally et Bernstein (1994). Résultats : Les résultats des analyses statistiques indiquent que le Sex Offender Acceptance of Responsibility Scales (SOARS; Peacock, 2000) ne mesure pas efficacement le construit du déni et de la minimisation. Ses propriétés psychométriques sont discutables. La réduction de l’instrument à dix variables permet cependant d’améliorer la mesure. L’échelle résultante est composée de deux facteurs, soit l’« acceptation du tort sexuel » et l’« acceptation de l’intention sexuelle ». Ces deux facteurs ont été mis en relation avec les facteurs des échelles de Bumby afin d’explorer les similitudes entre les concepts de déni, minimisation et distorsion cognitive. Or, malgré des corrélations faibles à moyennes, les différentes variables ne convergent en aucun facteur lors d’une analyse factorielle et les variables du SOARS corrèlent très peu au total de l’échelle, suggérant qu’il s’agit de concepts distincts.
Resumo:
Ce mémoire de recherche a pour objectif d’obtenir une mesure approximative de la mortalité des hommes médecins au Québec retenus dans l’étude. En plus d’analyser l’évolution de la mortalité de ces médecins pendant les périodes 1993-1998, 1999-2004 et 2005-2010, leur mortalité est comparée à celle de l’ensemble de la population masculine québécoise. Nous comparons également la mortalité des médecins omnipraticiens à celle des médecins spécialistes. Les données utilisées dans le cadre de ce mémoire proviennent d’un fichier administratif du Collège des médecins du Québec, qui contient des informations concernant un certain nombre de médecins qui ont obtenu un permis pour pratiquer la médecine au Québec, sans égard à leur statut au sein du Collège à la date de l’émission du fichier. Ces données n’ont pas été collectées à des fins statistiques et ainsi le fichier présente certaines limitations qui ont restreint nos analyses de mortalité, notamment le fait qu’elles ne nous fournissent pas la population à risque de décéder durant chacune des périodes étudiées. Cependant, même étant consciente que des biais se produiraient, nous avons calculé deux estimations de l’exposition au risque de mourir chez les médecins, en essayant de pallier le plus possible les limites du fichier. À partir de la première méthode de calcul, nous avons estimé les taux de mortalité par groupes quinquennaux d’âge entre 40 et 75 ans pour les médecins inscrits au tableau des membres. En contrepartie, à partir de la deuxième méthode de calcul, nous avons obtenu des taux de mortalité pour les mêmes groupes d’âge pour les médecins de tous statuts confondus et enregistrés dans le fichier de données. Nous croyons à des mesures acceptables de la mortalité des hommes médecins en autant qu’elle soit analysée en tenant compte de toutes les limites des données. Les résultats obtenus démontrent une diminution de la mortalité des hommes médecins d’une période à l’autre, mais les différences ne sont significatives que pour les groupes d’âge à partir d’environ 60 ans, surtout lorsque les taux des périodes 1993-1998 et 2005-2010 sont comparés. De plus, pour toutes les périodes analysées, la mortalité de l’ensemble de la population masculine québécoise s’avère plus élevée que celle des hommes médecins enregistrés dans le fichier de données et cela pour les deux méthodes de calcul de l’exposition au risque de décéder considérées. Finalement, cette étude ne montre pas de différence significative entre la mortalité des hommes médecins omnipraticiens et celle des hommes médecins spécialistes.
Resumo:
Depuis que le concept d’habilitation (empowerment) a été introduit dans le monde du travail, il est rapidement devenu à la mode dû à ses bénéfices anticipés à la fois pour les organisations et pour les travailleurs. Toutefois, bien que l’état d’habilitation psychologique des travailleurs ainsi que ses déterminants soient bien documentés (Seibert, Wang, & Courtright, 2011), il existe peu d’outils pour évaluer de façon comportementale l’habilitation des travailleurs (Boudrias & Savoie, 2006). Cette réalité nuit aux organisations qui tentent de mettre en place des programmes d’habilitation des employés et qui souhaitent en mesurer leurs effets comportementaux. En 2006, Boudrias et Savoie ont amorcé le travail pour pallier cette lacune en créant un cadre conceptuel de l’habilitation comportementale au travail composé de deux approches distinctes, soit l’approche émergente (comportements discrétionnaires) et l’approche structurelle (implication dans la gestion du travail) et en validant un premier questionnaire permettant de mesurer l’approche émergente. La présente thèse vise à poursuivre le travail amorcé, en instrumentant la seconde approche et en poursuivant la validation du concept d’habilitation comportementale. Plus spécifiquement, la thèse vise à : a) valider un questionnaire qui mesure l’implication des employés dans la gestion de leur travail, en deux versions, à savoir une version auto-rapportée ainsi qu’une version destinée au supérieur hiérarchique; b) établir la structure factorielle de l’habilitation comportementale à l’aide des deux approches opérationnalisées; c) vérifier la spécificité du construit d’habilitation comportementale par rapport à d’autres mesures connexes (p.ex. comportements de citoyenneté organisationnelle, comportements d’innovation, comportements d’auto-leadership et d’autogestion), et d) vérifier un modèle structurel incluant trois déterminants de l’environnement de travail, à savoir le style de supervision, le soutien des collègues et la latitude décisionnelle, comme prédicteur de l’habilitation individuelle au travail, évaluée à l’aide d’une mesure d’habilitation psychologique et des mesures des deux approches d’habilitation comportementale. Pour ce faire, trois études distinctes ont été réalisées auprès de travailleurs variés et quatre échantillons ont été constitués dont trois comprenant uniquement des données auto-rapportées (N = 274, 104, 249) et un quatrième incluant aussi des données rapportées par le supérieur (N = 151). Les résultats des analyses factorielles confirmatoires démontrent que la structure de l’instrument d’implication dans la gestion ainsi que celle de l’habilitation comportementale composée des deux approches sont constantes d’un échantillon à l’autre et dans ses deux versions. De plus, les propriétés métriques du questionnaire validé sont satisfaisantes. D’autre part, les résultats des analyses corrélationnelles indiquent que les mesures d’habilitation comportementale présentent une validité discriminante par rapport à des mesures d’autres construits connexes. Enfin, les analyses acheminatoires pour vérifier le modèle structurel anticipé indiquent que l’habilitation psychologique agit comme variable médiatrice dans les relations entre, d’une part, la latitude décisionnelle et les pratiques de gestion des supérieurs, et, d’autre part, les deux approches d’habilitation comportementale. Le soutien des collègues, de son côté, n’est pas relié à l’habilitation des travailleurs.
Resumo:
Dans un contexte où le monde du travail s’internationalise et où l’innovation est fondamentale, les organisations d’aujourd’hui doivent structurer le travail en tenant compte des distances géographiques et du besoin de bien performer dans les tâches reliées aux différents projets. Toutefois, le recours à des projets innovants et l’accès à des moyens de communication ne sont pas des conditions suffisantes pour assurer une performance adéquate. Différents facteurs, comme les compétences adaptées au travail virtuel et le degré de virtualité qui sépare les gens, doivent être pris en compte pour favoriser l’atteinte d’une bonne performance. De plus, afin de sélectionner les candidats qui seront en mesure de bien performer dans ce contexte, le recours à des outils d’évaluation appropriés et disponibles dans plusieurs langues est essentiel. Cette thèse présente en premier lieu un processus de traduction, d’adaptation et de validation en français et en anglais d’un outil en allemand visant l’évaluation des compétences requises lorsque le travail est organisé en mode distribué. Un premier article présente les limites fréquemment observées dans les études qui effectuent de telles adaptations. Un deuxième article met ensuite en lumière l’importance relative d’un ensemble de compétences liées à deux types de performances individuelles appropriées au travail en projet virtuel. Les résultats montrent que la créativité, l’autonomie, l’intégrité, la loyauté et la minutie sont directement liées à la performance proactive. Il est cependant nécessaire de prendre en compte l’effet positif de la perception de collaboration et l’effet négatif du degré de virtualité pour comprendre comment les compétences que constituent la motivation à apprendre, l’autonomie, l’intégrité, la loyauté et la minutie agissent sur la performance adaptative. En somme, cette thèse propose d’abord un processus rigoureux permettant l’adaptation, la traduction et la validation d’outils dans plusieurs langues. Ce processus permet d’éviter les limites auxquelles se buteraient des méthodes plus simples dans un contexte international où il est primordial d’avoir une très grande confiance en l’équivalence des instruments. Cette thèse représente également un avancement intéressant en ce qui a trait à la compréhension des différents déterminants de la performance individuelle lorsque le travail est organisé en projets virtuels. Des recommandations sont présentées afin de favoriser la performance individuelle, et des pistes de recherches futures sont également amenées pour continuer à approfondir les connaissances sur le sujet.
Resumo:
Introduction : Les accéléromètres sont actuellement les appareils les plus utilisés pour mesurer le niveau d’activité physique, et ce, parce qu'ils évaluent les niveaux d'activité physique de façon objective. Toutefois, les mouvements humains sont difficiles à mesurer, et de nombreuses limitations doivent être prises en considération pour la bonne utilisation des accéléromètres. Les études présentées s’intéressent donc à la validité de la fonction podomètre des accéléromètres ainsi qu’à la validation de la composante accéléromètre d’un nouvel appareil multicapteur (SenseDoc). Méthode : Les sujets ayant participé à la première étude, qui consistait en la validation de la fonction podomètre des accéléromètres, ont marché sur un tapis roulant à trois vitesses différentes (2,5 km/h, 3,5 km/h et 4,8 km/h) pendant 5 minutes par palier. Un accéléromètre (ActiGraph GT3X) porté à la ceinture a enregistré le nombre de pas tandis qu'une caméra a enregistré la marche des participants. Pour la seconde étude, les participants portaient un accéléromètre Actigraph et un SenseDoc à la hanche. Les données brutes des accéléromètres et la mesure de la consommation d’oxygène par calorimétrie indirecte ont été mesurées lors de 14 activités réalisées en laboratoire allant de sédentaires à vigoureuses. Résultats : La première étude indique que les accéléromètres ont détecté seulement 53 % des pas à 2,5 km/h, 82 % à 3,5 km/h et 91 % à 4,8 km/h pour les personnes non obèses. Pour les personnes obèses, l'accéléromètre a détecté 47 % des pas à 2.5 km/h, 67 % à 3.5 km/h et 100 % à 4.8 km/h, des résultats significativement différents des personnes non obèses. La seconde étude confirme pour sa part que le SenseDoc est un outil valide de mesure du niveau d’activité physique. Les accéléromètres possèdent une bonne capacité prédictive de la dépense énergétique avec des valeurs de R carré de 0,84 et 0,80 respectivement pour l'Actigraph et le SenseDoc. Conclusion : À vitesse de marche lente, les accéléromètres sous-estiment le nombre de pas, et ce, dans une plus large mesure chez les personnes obèses que chez les personnes non obèses. Également, une méthode valide et transparente de transformation de données brutes d’accélérométrie a été divulguée dans l’étude avec le SenseDoc. Les travaux présentés dans ce mémoire visent à améliorer l’utilisation en milieu clinique et en recherche des accéléromètres et ouvrent la voie à une plus grande uniformité entre les études utilisant différents types d’accéléromètres.
Resumo:
Le présent travail se penche sur le concept de la conscience de l’environnement d’affaires. Ce concept fait référence à l’importance de la prise en compte par l’employé non-cadre d’un ensemble varié d’éléments d’information composant l’environnement d’affaires. La prise en considération de ces éléments d’information par l’employé aiderait ce dernier non seulement à prendre de meilleures décisions d’affaires, mais aussi à résoudre des problèmes dans un milieu de travail prônant la gestion participative. Seulement deux mémoires et un article scientifique se sont penchés sur la conscience de l’environnement d’affaires. Le mémoire d’Ève St-Onge (2007) a justifié l’existence du concept et a établi une première liste d’indicateurs reflétant les éléments d’information de l’environnement d’affaires. Pour sa part le mémoire de Véronique Gauvreau-Jean (2008) s’est plutôt attardé à la validation initiale d’une échelle de mesure de la conscience de l’environnement d’affaires. À ces deux mémoires s’ajoute l’article scientifique de Haines, Rousseau, Brotheridge et St-Onge (2012) lequel a permis de définir un ensemble d’indicateurs et de dimensions de la conscience de l’environnement d’affaires. Le présent mémoire a pour objectif de vérifier le caractère adéquat du contenu de l’échelle de Véronique Gauvreau-Jean (2008), ce type de vérification «consiste essentiellement à examiner le contenu du test pour s’assurer de sa représentativité en tant qu’échantillon du domaine de comportements à évaluer» (Anastasi, 1982, p.132). Considérant la complexité de la conscience de l’environnement d’affaires, cette vérification s’impose pour mettre au point une échelle de mesure qui peut être généralement applicable dans des milieux de travail ayant recours à une gestion participative. Pour vérifier le caractère adéquat du contenu de l’échelle de mesure de Véronique Gauvreau-Jean (2008), il y a eu l’animation de deux panels de discussion avec une entreprise œuvrant dans le placement de personnel ainsi qu’une autre dans la distribution de produits de papier. Avec les propos des participants des panels, une analyse des données a été effectué pour produire une échelle de mesure reformulée. Cette dernière a ensuite eu un avis favorable par deux professeurs, de différentes facultés d’administration québécoises, concernant la facilité de compréhension et sa capacité de refléter les éléments de l’environnement d’affaires. Il y a finalement eu la comparaison du contenu de l’échelle reformulée et du contenu de l’échelle de Gauvreau-Jean (2008) pour déterminer le caractère adéquat de l’échelle existante.
Resumo:
Chez le chien, la daltéparine est un anticoagulant utilisé pour la prévention et le traitement de la thrombose. La surveillance thérapeutique de la daltéparine par l’activité anti-facteur Xa (FXa) n’est pas un test fonctionnel. Cette étude avait pour but d’étudier l’emploi de la génération de thrombine (GT) pour évaluer les effets in vitro de la daltéparine sur du plasma canin, ainsi que pour détecter les effets pharmacodynamiques de la daltéparine administrée chez des chiens sains. Premièrement, les paramètres normaux de la GT ont été établis à partir du plasma de 25 beagles et 11 chiens sains de clients. Ensuite, des pools de plasma canin fortifié avec de la daltéparine, à dose croissante, ont été analysés selon la GT, l’activité anti-FXa et selon le temps de thromboplastine partielle activée (aPTT). Finalement, 24 beagles sains répartis au hasard dans 4 groupes on reçu soit une dose sous-cutanée (SC) de 50U/kg, 100U/kg ou 150U/kg de daltéparine ou un placebo. Du plasma pauvre en plaquettes (PPP) a été récolté pendant 24 heures et analysé selon la GT, l’anti-FXa et l’aPPT. In vitro, la daltéparine a démontré un effet anticoagulant sur la GT qui était concentration-dépendant. Les tests de GT et anti-FXa étaient plus sensibles aux effets de la daltéparine que l’aPPT. L’étude pharmacodynamique a démontré que le temps, la dose ainsi qu’une interaction temps*dose avaient un effet significatif sur les paramètres de GT et anti-FXa. La GT peut mesurer les effets pharmacodynamiques de la daltéparine à des doses variées chez des chiens sains.