959 resultados para Cadre d’analyse


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’encadrement légal particulier de la négociation collective impliquant les pompiers municipaux québécois, malgré sa soumission à certaines règles prévues par le régime général du Code du travail, présente des spécificités qui pourraient en affecter l’efficacité et ainsi contribuer à l’instauration de relations de travail difficiles. Ce mémoire s’attarde aux difficultés associées à ce régime de négociation collective interdisant le recours à la grève et prévoyant son remplacement par un système d’arbitrage obligatoire. L’étude des relations de travail impliquant les pompiers de Montréal ne permet pas, à elle seule, de qualifier ce régime particulier de négociation collective d’alternative inefficace au régime général. Toutefois, ce mémoire met en évidence les limites d’un cadre légal, alors que des facteurs externes au droit, tels que le caractère public de l’employeur et la nature particulière du métier, semblent jouer un rôle déterminant dans la dynamique conflictuelle des relations de travail impliquant des pompiers municipaux.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les mesures cosmologiques les plus récentes ont montré la présence d’un type de matière exotique constituant 85% de la masse de l’univers. Ce type de matière non baryonique serait formé de particules neutres, non relativistes, massives et interagissant faiblement avec la matière baryonique. L’ensemble des candidats est regroupé sous le nom générique WIMP (Weakly Interactive Massive Particles). L’expérience PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une expérience utilisant des détecteurs à seuil d’énergie contenant des gouttelettes surchauffées constituées de C4F10. Cette technique de détection est basée sur le principe de la chambre à bulles. Le projet PICASSO a pour but de détecter directement une particule de matière sombre. Le principe de détection est qu’une particule de matière sombre interagissant avec le liquide actif engendre un recul nucléaire du 19F. L’énergie de recul serait suffisante pour engendrer une transition de phase accompagnée d’un signal acoustique enregistrée par des senseurs piézoélectriques. Dans le cadre de ce mémoire, une simulation du taux de comptage de l’étalonnage des détecteurs PICASSO soumis à des neutrons monoénergétiques a été effectuée en utilisant la théorie de Seitz qui décrit les critères pour qu’une transition de phase ait lieu pour un liquide en état de surchauffe. De plus, un modèle calculant le signal acoustique émis lors d’une transition de phase engendré par différents types de radiations a été créé permettant de caractériser la discrimination entre différents bruits de fond en fonction de l’énergie de seuil. Finalement, un outil d’analyse, la localisation des évènements, a été utilisé pour appliquer des coupures sur le volume dans le but d’améliorer la discrimination alpha-neutron.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les scores de propension (PS) sont fréquemment utilisés dans l’ajustement pour des facteurs confondants liés au biais d’indication. Cependant, ils sont limités par le fait qu’ils permettent uniquement l’ajustement pour des facteurs confondants connus et mesurés. Les scores de propension à hautes dimensions (hdPS), une variante des PS, utilisent un algorithme standardisé afin de sélectionner les covariables pour lesquelles ils vont ajuster. L’utilisation de cet algorithme pourrait permettre l’ajustement de tous les types de facteurs confondants. Cette thèse a pour but d’évaluer la performance de l’hdPS vis-à-vis le biais d’indication dans le contexte d’une étude observationnelle examinant l’effet diabétogénique potentiel des statines. Dans un premier temps, nous avons examiné si l’exposition aux statines était associée au risque de diabète. Les résultats de ce premier article suggèrent que l’exposition aux statines est associée avec une augmentation du risque de diabète et que cette relation est dose-dépendante et réversible dans le temps. Suite à l’identification de cette association, nous avons examiné dans un deuxième article si l’hdPS permettait un meilleur ajustement pour le biais d’indication que le PS; cette évaluation fut entreprise grâce à deux approches: 1) en fonction des mesures d’association ajustées et 2) en fonction de la capacité du PS et de l’hdPS à sélectionner des sous-cohortes appariées de patients présentant des caractéristiques similaires vis-à-vis 19 caractéristiques lorsqu’ils sont utilisés comme critère d’appariement. Selon les résultats présentés dans le cadre du deuxième article, nous avons démontré que l’évaluation de la performance en fonction de la première approche était non concluante, mais que l’évaluation en fonction de la deuxième approche favorisait l’hdPS dans son ajustement pour le biais d’indication. Le dernier article de cette thèse a cherché à examiner la performance de l’hdPS lorsque des facteurs confondants connus et mesurés sont masqués à l’algorithme de sélection. Les résultats de ce dernier article indiquent que l’hdPS pourrait, au moins partiellement, ajuster pour des facteurs confondants masqués et qu’il pourrait donc potentiellement ajuster pour des facteurs confondants non mesurés. Ensemble ces résultats indiquent que l’hdPS serait supérieur au PS dans l’ajustement pour le biais d’indication et supportent son utilisation lors de futures études observationnelles basées sur des données médico-administratives.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire porte sur l’utilisation des niveaux d’interventions médicales (NIM) en centre hospitalier (CH) au Québec. Les NIM sont des formulaires organisés sous forme d’échelle, qui ont été développés afin de faciliter la prise de décision en lien avec la réanimation, les traitements de maintien en vie et de prolongation de la vie, et les soins à offrir. L’objectif de ce mémoire est d’offrir un portrait de l’utilisation actuelle des NIM au Québec en CH afin d’émettre des recommandations pour les professionnels de la santé, les institutions et les décideurs politiques. Dans un premier temps, un article de recension des écrits est présenté afin de situer les concepts associés aux NIM avec les problèmes actuellement vécus, par exemple le grand nombre de patients qui décèdent en CH, les problèmes de communication entre les professionnels de la santé, les patients et leur famille, les difficultés liées à la prise de décision en fin de vie et les délais liés aux ordonnances de non-réanimation. Dans un deuxième temps, le second article présente les résultats de recherche. Afin d’établir le portrait de l’utilisation des NIM en CH, un audit de 299 dossiers de patients adultes, décédés dans trois CH a été entrepris. Le cadre éthique d’analyse des résultats est l’approche par principes. Bien que l’utilisation des NIM peut différer sur certains aspects selon l’hôpital, les NIM sont un système efficace pour promouvoir le respect de l’autonomie des patients, la bienfaisance et le caring, mais ceux-ci ne protègent pas contre les problèmes d’iniquité dans l’accès aux soins palliatifs. Afin de faciliter et promouvoir leur utilisation, il est recommandé de standardiser les échelles de NIM à travers la province et les institutions et d’émettre des lignes directrices d’utilisation claires. Également, une plus grande formation pour les professionnels de la santé et l’inclusion d’un membre de l’équipe interdisciplinaire permettraient aux professionnels d’être mieux outillés pour les discussions difficiles et pour la prise de décision, et encourageraient la pratique interdisciplinaire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des arts et des sciences en vue de l’obtention du grade de Maître ès sciences (M. Sc.) en criminologie

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La voie de signalisation Notch est conservée au cours de l'évolution. Elle joue un rôle clé dans le développement, et elle est impliquée dans de nombreuses décisions de destin cellulaire, dans le maintien des cellules souches, et dans le contrôle de la prolifération et de la différenciation cellulaires. Une dérégulation de la signalisation Notch est impliquée dans diverses maladies et cancers, y compris les tumeurs solides, comme les cancers du sein et du col de l'utérus, et les leucémies, comme la Leucémie Aiguë Lymphoblastique des cellules T (LAL-T). Notch est un récepteur transmembranaire activé par des ligands transmembranaires de la famille DSL (Delta/Serrate/Lag-2). Bien que plusieurs mutations oncogéniques ont été identifiées au niveau du récepteur Notch, de nombreux cancers modulés par Notch demeurent ligand-dépendants. Étonnamment, les mécanismes moléculaires régulant l'activation du ligand sont encore relativement peu caractérisés par rapport à ceux qui régissent le récepteur Notch lui-même. Utilisant un essai de co-culture avec un rapporteur luciférase de Notch, nous avons effectué le premier crible d'ARNi pan-génomique visant spécifiquement à identifier des régulateurs des ligands de Notch dans la cellule émettrice du signal. Nous avons ainsi pu découvrir de nouvelles classes de régulateurs communs pour les ligands Delta-like1 et 4. Ces régulateurs comprennent des inhibiteurs de protéases, des facteurs de transcription, et des gènes divers à fonction inconnue, tels que Tmem128 « Transmembrane protein 128 », ou à fonction préalablement caractérisée tels que la co-chaperonne moléculaire Cdc37 « Cell division cycle 37 homolog ». Par la suite, nous avons développé des cribles secondaires fonctionnels où nous avons démontré l'importance de ces régulateurs pour des événements Notch-dépendants, comme la différenciation des cellules T normales, et la survie des cellules souches pré-leucémiques isolées à partir d'un modèle murin de LAL-T. En outre, nous avons prouvé que les régulateurs les plus forts du crible de survie sont également nécessaires pour l'activité d'auto-renouvellement des cellules souches pré-leucémiques. Finalement, nous avons entamé une caractérisation moléculaire préliminaire de deux régulateurs nouvellement identifiés; Tmem128 et Cdc37 afin d'étudier leur mécanisme d'action sur les ligands. En conclusion, cette étude nous a permis d'identifier de nouveaux régulateurs de la voie Notch qui pourraient servir de cibles thérapeutiques potentielles dans les cancers; tel qu'illustré par le modèle LAL-T. La compréhension des détails moléculaires sous-jacents aux fonctions de ces régulateurs sera essentielle afin de développer des inhibiteurs pharmacologiques pour bloquer leur action et entraver la signalisation Notch dans le cancer.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Faisant confiance à leur intuition les urbanistes s’inscrivent souvent dans un flou théorique qui les rend susceptibles de succomber à l’idéologie dominante et aux modes du moment. La première partie de ce mémoire vise à démontrer que cette posture par rapport à la théorie entraine un manque de réflexivité qui constitue un obstacle majeur à l’exercice d’une pratique urbanistique véritablement professionnelle, éthique et respectueuse du territoire. En effet, selon Bourdieu, un corpus théorique autonome permettrait d’offrir à l’urbaniste un cadre de réflexivité lui permettant de prendre du recul sur le quotidien et d’échapper à l’influence indue de l’idéologie sur sa pratique. Ce mémoire vise à comprendre la configuration actuelle du champ des théories de l’urbanisme en Occident (compris selon la théorie des champs de Bourdieu) et à proposer un modèle synthèse spécifiquement destiné à servir d’outil de réflexivité à l’urbaniste. Pour y parvenir, il a été privilégié de faire une relecture herméneutique de modèles théoriques existants, mais considérés comme incomplets, des théories de l’urbanisme. Dans ce domaine, deux Écoles de pensée ont été définies (École française et École anglo-saxonne). Ensuite, une typologie emblématique de chaque École a été choisie pour être revue à la lumière de l’objectif fixé. Ainsi, les typologies de Françoise Choay (École française) et de Philip Allmendinger (École anglo-saxonne) ont été analysées et mises en commun au moyen de la construction d’une historiographie commune des théories de l’urbanisme. Finalement, un modèle théorique original (la typologie intégrée) a été formulé. Celui-ci définit quatre grands courants théoriques : le rationalisme instrumental, le rationalisme intersubjectif, le mouvement pragmatico-postmoderne et le mouvement patrimonial. Il apparaît alors que le rationalisme occupe une position hégémonique dans le champ des théories de l’urbanisme depuis sa fondation et qu’elle est assumée par le rationalisme intersubjectif depuis le milieu des années 1990.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Robert Bourbeau, département de démographie (Directeur de recherche) Marianne Kempeneers, département de sociologie (Codirectrice de recherche)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La violence conjugale peut prendre différentes formes et évoluer à travers le temps. On ne peut écarter la possibilité que les différentes trajectoires soient influencées par le contexte de vie dans lequel la victime se présente. Dans cet ordre d’idée, la perspective des parcours de vie se présente comme un cadre théorique approprié pour comprendre les différents changements temporels qui s’opèrent dans les trajectoires de victimisation en contexte conjugal. Toutefois, le soutien empirique sur les facteurs derrière le nombre d’épisodes de la violence et ses variations au fil du temps est mince; notamment en raison de la rareté des données longitudinales ou rétrospectives requises pour ce type de recherche. Cette étude propose de combler ces lacunes dans l’analyse des trajectoires individuelles des femmes qui ont été victimes de violence conjugale. Plus spécifiquement, elle analyse l’évolution de l’occurrence et de l’intensité de la violence physique à travers le temps. L’échantillon est composé de 53 femmes, toutes victimes de violence conjugale au courant des 36 derniers mois référées par plusieurs milieux (par exemple : maisons d’hébergement, Cour municipale, centres d’aide aux victimes d’acte criminel, centres de thérapie, maisons de transition). Cette recherche est basée sur des données rétrospectives des circonstances entourant la vie de ces femmes au cours des 36 derniers mois. Les trajectoires individuelles ont été reconstruites en utilisant la méthode des calendriers d’histoire de la vie. Cette méthode qui a fait ses preuves dans l’étude des carrières criminelles et de la victimisation permet de situer les trajectoires dans leur contexte de vie et de reconstruire la dynamique derrière les victimisations. L’utilisation de la modélisation de type multiniveaux comme stratégie d’analyse est privilégiée dans cette étude. Combiné avec le calendrier d’histoire de vie, ce type de modèle permet d’examiner les changements dans la chronicité et l’intensité de la violence au sein des trajectoires individuelles des victimes. Les résultats permettent une meilleure compréhension des éléments statiques et dynamiques dernières trajectoires des femmes victimes. Cette recherche se veut avant tout exploratoire et ouvre la porte à une multitude de possibilités à de futures recherches.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La pensée de Nietzsche a joué un rôle déterminant et récurrent dans les discours et les débats qui ont formé et continuent de façonner le domaine de l’histoire de l’art, mais aucune analyse systématique de cette question n’a encore vu le jour. L’influence de Nietzsche a été médiée par divers interlocuteurs, historiens de l’art et philosophes, qui ont encadré ces discussions, en utilisant les écrits du philosophe comme toile de fond de leurs propres idées. Ce mémoire souhaite démontrer que l’impact de Nietzsche dans le champ de l’histoire de l’art existe mais qu’il fut toujours immergé ou éclipsé, particulièrement dans le contexte anglo-américain, l’emphase étant placée sur les médiateurs de ses idées en n’avouant que très peu d’engagement direct avec son œuvre. En conséquence, son importance généalogique pour certains fondateurs de la discipline reste méconnue; sa présence réellement féconde se traduit plutôt comme une absence ou une présence masquée. En vue de démontrer ce propos, nous regardons donc le contexte nietzschéen qui travaille les écrits de certains historiens de l’art, comme Jacob Burckhardt et Aby Warburg, ou des philosophes et d’écrivains ayant marqué la discipline de l’histoire de l’art (plus particulièrement dans le cadre de l’influence de la « French Theory » sur l’histoire de l’art anglo-américaine depuis la fin des années 1970) : Martin Heidegger, Michel Foucault, Jacques Derrida, Gilles Deleuze et Georges Bataille. Nous examinons certaines voies par lesquelles ses idées ont acquis une pertinence pour l’histoire de l’art avant de proposer les raisons potentielles de leur occlusion ultérieure. Nous étudions donc l’évolution des discours multiples de l’histoire comme domaine d’étude afin de situer la contribution du philosophe et de cerner où et comment ses réflexions ont croisé celles des historiens de l’art qui ont soit élargi ou redéfini les méthodes et les structures d’analyse de leur discipline. Ensuite nous regardons « l’art » de Nietzsche en le comparant avec « l’art de l’histoire de l’art » (Preziosi 2009) afin d’évaluer si ces deux expressions peuvent se rejoindre ou s’il y a fondamentalement une incompatibilité entre les deux, laquelle pourrait justifier ou éclairer la distance entre la pensée nietzschéenne sur l’art et la discipline de l’histoire de l’art telle qu’elle s’institutionnalise au moment où le philosophe rédige son œuvre.