8 resultados para time history analysis
em Université de Montréal, Canada
Resumo:
Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.
Resumo:
La présente thèse porte sur les acteurs au sein des organisations non gouvernementales locales (ONG) qui, dans la configuration actuelle de l’aide internationale au développement, jouent un rôle de relais ou d’intermédiaires entre donateurs internationaux et populations bénéficiaires en Afrique subsaharienne. En analysant les trajectoires professionnelles de 32 femmes et hommes « leaders » dans des ONG de Cotonou (Bénin) et de Lomé (Togo), la thèse se propose d’appréhender les processus sociaux à travers lesquels ces individus deviennent intermédiaires dans les activités de développement. La recherche s’inscrit dans une approche théorique construite à la rencontre entre la perspective orientée vers l’acteur en socioanthropologie du développement, la sociologie de l’individuation et le paradigme des parcours de vie. La thèse prend également une posture comparative en contrastant, d’une part, les trajectoires professionnelles des intermédiaires du Bénin et du Togo, deux pays ayant connu entre les années 1990 et début 2000 des « destinées » opposées en ce qui a trait à leurs rapports avec les bailleurs de fonds étrangers. D’autre part, l’analyse compare deux générations d’intermédiaires et contraste l’expérience des intermédiaires féminins et masculins. L’analyse montre qu’en premier lieu, les conférences nationales en 1990 au Bénin et en 1991 au Togo ont constitué un tournant important dans les trajectoires professionnelles des intermédiaires dans les deux pays, créant subséquemment, d’un côté, un contexte favorable aux intermédiaires du Bénin, et de l’autre, un environnement délétère pour ceux du Togo. Toutefois, au cours des dix dernières années, ces différences de conditions de travail se sont beaucoup atténuées et les défis relevés par les intermédiaires dans les deux pays sont à nouveau similaires; les contextes actuels sont caractérisés par un soutien étatique au minima, un champ d’activités très concurrentiel et politisé, une professionnalisation du champ, et une forte dépendance vis-à-vis des bailleurs de fonds extérieurs. En second lieu, l’analyse des récits de vie a permis de ressortir quatre types de profils des intermédiaires au moment où ils intègrent le champ des ONG : les « reconvertis », les « nouveaux diplômés des années 1990 », les « carriéristes », et les « activistes ». La comparaison générationnelle suggère en outre que les deux premiers types décrivent mieux les intermédiaires ayant commencé leurs activités avant les années 2000, alors que les « carriéristes » sont pour l’essentiel des intermédiaires de la jeune génération qui intègre le domaine de l’intermédiation après 2000. Aussi, la recherche montre que pour entrer, mais surtout « durer », dans le champ des ONG ces individus utilisent divers réseaux politiques et associatifs et savent « manœuvrer », notamment en choisissant une « thématique porteuse », en veillant à maintenir une constante « visibilité » ou en ayant recours à des formations continues pour acquérir ou consolider des compétences recherchées par les bailleurs de fonds. Par ailleurs, l’analyse des trajectoires professionnelles féminines a révélé qu’alors que le poids des responsabilités familiales a fait que les « pionnières » de l’intermédiation sont entrées de façon tardive dans une profession dominée par les hommes, et se sont toutes focalisées sur des thématiques liées directement aux droits des femmes, les parcours de leurs cadettes sont bien différents. Ces dernières ne travaillent pas dans le traditionnel domaine du « genre », et même si elles reconnaissent aussi leurs difficultés à concilier responsabilités professionnelles et devoir familial, elles ne sont pas prêtes à mettre de côté leur carrière et ont une perception très différente de leurs aînées des rôles genrés au sein de la famille.
Resumo:
Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.
Resumo:
La violence contre les policiers a des répercussions importantes à la fois chez les policiers et pour les administrateurs de la police. En 2005, le taux canadien de voies de fait contre la police a atteint son plus haut sommet en plusieurs décennies, faisant état d’une situation préoccupante. Plusieurs provinces canadiennes connaissent d’ailleurs une hausse marquée de la violence contre leurs policiers depuis plusieurs années. Cette étude vise donc à examiner et à comprendre l’évolution du phénomène de violence contre les policiers au Canada par l’identification de facteurs qui pourraient expliquer les variations du taux de voies de fait contre les policiers. La méthode d’analyse privilégiée dans le cadre de cette étude est une analyse transversale de séries chronologiques regroupées (pooled time series) qui traite des données portant sur les dix provinces canadiennes pour une période allant de 1986 à 2006. Les résultats indiquent que plusieurs facteurs ont un impact sur la violence dont sont victimes les policiers : la proportion de la population âgée entre 15 et 24 ans, la proportion d’hommes de 15 ans et plus, la proportion de la population vivant dans une région urbaine, la proportion de gens divorcés, les taux résiduels de crimes de violence et de crimes rattachés aux drogues, et le nombre d’évasions et de personnes en liberté sans excuse. La présence croissante de policières, qui fait encore l’objet de débats, semble quant à elle réduire le nombre de voies de fait contre la police, quoique l’impact de ce facteur soit de faible portée. Au Québec, la une hausse importante du taux de voies de fait contre les policiers pourrait s’expliquer par la hausse de plusieurs facteurs identifiés comme jouant un rôle dans le phénomène, bien qu’il ne faille pas écarter qu’un changement dans la reportabilité puisse entrer en ligne de compte.
Resumo:
Contexte et objectifs. Depuis plusieurs années, la criminalité économique génère des coûts économiques et sociaux importants. Plusieurs acteurs, dont les entreprises privées, se sont mobilisés pour lutter contre ce phénomène. La fraude par carte de débit est un crime économique en expansion contre lequel plusieurs organisations ont entrepris des actions. L’objectif de ce mémoire est d’améliorer les connaissances sur les effets des mesures de prévention situationnelle appliquées dans les succursales d’un commerce de détail et leur impact sur le processus décisionnel des délinquants impliquées dans le clonage de cartes de débit. Méthodologie. Les effets des mesures de prévention mises en place sont évalués à l’aide d’analyses de séries chronologiques interrompues. En complément des analyses statistiques, des entrevues et une analyse documentaire sont effectuées. Les entrevues sont réalisées avec des enquêteurs du service de sécurité de l’entreprise de commerce de détail. L’analyse documentaire est basée sur les rapports d’événement ouverts lors des fraudes par carte de débit. Résultats. Les mesures de prévention ont produit différents effets. Selon la mesure, il fut possible de constater soit une hausse ou une baisse dans le nombre de délits commis. Certaines mesures ont, en outre, provoqué un déplacement spatial, un déplacement dans le choix de la cible, un déplacement dans le type de crime commis et, finalement, un déplacement tactique. Conclusion. Les résultats suggèrent que les mesures de prévention adoptées ont empêché la réalisation des délits associés à la fraude par carte de débit. Par contre, la présence de plusieurs formes de déplacement indique que les fraudeurs se sont adaptés aux mesures de prévention. Afin de documenter adéquatement cette forme de crime et les déplacements générés, d’autres études s’avèrent nécessaires.
Resumo:
Les antipsychotiques (APs) sont fréquemment prescrits pour les troubles comportementaux associés à la démence. Or, ces produits ont fait l'objet de trois mises en garde (2002, 2004, 2005) en raison d'une augmentation du risque d'événement cérébrovasculaire et de décès. L’objectif de ce mémoire est d’évaluer l'utilisation d’APs dans la population de personnes âgées démentes vivant à domicile, et de déterminer l’effet des mises en garde sur les profils observés. Une cohorte rétrospective de 10,969 personnes âgées démentes ayant débuté un traitement par AP entre le 1er janvier 2000 et le 31 décembre 2009 fut identifiée à partir des banques de données de la Régie de l'assurance maladie du Québec (RAMQ). Des séries chronologiques segmentées ont permis de quantifier l’effet des mises en garde sur l'utilisation d’APs. L'effet de la mise en garde de 2005 sur les caractéristiques des patients traités ainsi que sur les profils d'utilisation (dose et durée) a été évalué, respectivement par des modèles de régression logistique et de régression linéaire multivariés. Le taux délivrance d'APs atypiques a augmenté au cours du temps jusqu'à la mise en garde de 2005 pour ensuite diminuer de 8.96% (IC 95% : -11.91% – -6.02%). L'analyse par produit a révélé la même tendance pour la rispéridone, le seul AP approuvé au Canada pour les personnes âgées démentes. En revanche, le taux de délivrance de quétiapine, qui est hors-indication, a continué d'augmenter. Le taux d'initiation de traitement par APs a cependant diminué au cours du temps pour tous les produits. Les mises en garde ne semblent pas être associées avec un changement dans les caractéristiques des patients traités, ni avec les doses et durées d’utilisation. Le manque d'efficacité des mises en garde est probablement en partie lié à l'absence d'alternatives thérapeutiques pour le traitement des troubles psychologiques et comportementaux chez les patients atteints de démence.
Resumo:
La reconnaissance d’objets est une tâche complexe au cours de laquelle le cerveau doit assembler de manière cohérente tous les éléments d’un objet accessible à l’œil afin de le reconnaître. La construction d’une représentation corticale de l’objet se fait selon un processus appelé « bottom-up », impliquant notamment les régions occipitales et temporales. Un mécanisme « top-down » au niveau des régions pariétales et frontales, facilite la reconnaissance en suggérant des identités potentielles de l’objet à reconnaître. Cependant, le mode de fonctionnement de ces mécanismes est peu connu. Plusieurs études ont démontré une activité gamma induite au moment de la perception cohérente de stimuli, lui conférant ainsi un rôle important dans la reconnaissance d’objets. Cependant, ces études ont utilisé des techniques d’enregistrement peu précises ainsi que des stimuli répétitifs. La première étude de cette thèse vise à décrire la dynamique spatio-temporelle de l’activité gamma induite à l’aide de l’électroencéphalographie intracrânienne, une technique qui possède des résolutions spatiales et temporelles des plus précises. Une tâche d’images fragmentées a été conçue dans le but de décrire l’activité gamma induite selon différents niveaux de reconnaissance, tout en évitant la répétition de stimuli déjà reconnus. Afin de mieux circonscrire les mécanismes « top-down », la tâche a été répétée après un délai de 24 heures. Les résultats démontrent une puissante activité gamma induite au moment de la reconnaissance dans les régions « bottom-up ». Quant aux mécanismes « top-down », l’activité était plus importante aux régions occipitopariétales. Après 24 heures, l’activité était davantage puissante aux régions frontales, suggérant une adaptation des procédés « top-down » selon les demandes de la tâche. Très peu d’études se sont intéressées au rythme alpha dans la reconnaissance d’objets, malgré qu’il soit bien reconnu pour son rôle dans l’attention, la mémoire et la communication des régions neuronales distantes. La seconde étude de cette thèse vise donc à décrire plus précisément l’implication du rythme alpha dans la reconnaissance d’objets en utilisant les techniques et tâches identiques à la première étude. Les analyses révèlent une puissante activité alpha se propageant des régions postérieures aux régions antérieures, non spécifique à la reconnaissance. Une synchronisation de la phase de l’alpha était, quant à elle, observable qu’au moment de la reconnaissance. Après 24 heures, un patron similaire était observable, mais l’amplitude de l’activité augmentait au niveau frontal et les synchronies de la phase étaient davantage distribuées. Le rythme alpha semble donc refléter des processus attentionnels et communicationnels dans la reconnaissance d’objets. En conclusion, cette thèse a permis de décrire avec précision la dynamique spatio-temporelle de l’activité gamma induite et du rythme alpha ainsi que d’en apprendre davantage sur les rôles potentiels que ces deux rythmes occupent dans la reconnaissance d’objets.
Resumo:
Cette thèse analyse un processus de changement institutionnel graduel défini comme la fédéralisation de la gouvernance de l’immigration et de l’intégration. Ce processus s’est déroulé au Canada entre 1990 et 2010. Il a comme caractéristique centrale la croissance des activités en immigration et en intégration de tous les gouvernements provinciaux ainsi que le maintien parallèle d’activités du gouvernement fédéral. L’argument central défendu est que les provinces ont joué un rôle de déclencheur et de mainteneurs dans ce processus, qui ne peut donc pas s’expliquer uniquement par une volonté fédérale de décentraliser la gouvernance de l’immigration. L’analyse démontre que la fédéralisation est le résultat de l’interaction, dans le temps, de deux mécanismes : la construction provinciale et la décentralisation. Centrale à cette démonstration est la mise en lumière de l’existence d’une variation structurée dans les politiques, programmes et discours provinciaux en matière d’immigration et d’intégration. En effet, la thèse s’ancre dans la démonstration empirique de quatre modes d’intervention en immigration et en intégration : 1) holistique (Québec et Manitoba), 2) réactif (Ontario et Colombie-Britannique), 3) passerelle (Alberta et Saskatchewan) ainsi que 4) attraction-rétention (provinces atlantiques). Malgré ces différences, l’analyse montre qu’une similarité est partagée par les dix provinces : une conception de l’immigration comme ressource pour la société provinciale. Le retraçage du processus de fédéralisation s’effectue par le biais d’études de cas des trajectoires provinciales, au sein desquelles il est possible d’observer le fonctionnement et les interactions des deux mécanismes. L’analyse montre que le positionnement temporel des provinces dans le processus de fédéralisation explique en partie les différences dans les modes d’interventions en immigration et en intégration qu’elles ont développés. Plus largement, l’analyse met en lumière l’importance de tenir compte de l’évolution du contexte fédéral pour comprendre la mise en mouvement du mécanisme de construction provinciale en immigration dans les dix provinces canadiennes entre 1990 et 2010. Les contributions de cette thèse sont les suivantes. Premièrement, nous montrons l’efficacité d’une analyse institutionnelle historique centrée sur les processus de changements institutionnels graduels pour l’étude du fédéralisme et des politiques publiques au Canada. Deuxièmement, nous effectuons une contribution empirique en retraçant et comparant les trajectoires contemporaines des 10 provinces en ce qui a trait au développement de politiques et d’institutions liées à l’immigration et à l’intégration, à l’aide d’entretiens, de l’analyse de documents officiels et de documents d’archives. Troisièmement, notre analyse démontre qu’une analyse mécanistique permet de revitaliser la notion de construction provinciale en augmentant sa portabilité et sa portée explicative.