992 resultados para Analyse de sensibilité
Resumo:
Cette thèse traite de la structure électronique de supraconducteurs telle que déterminée par la théorie de la fonctionnelle de la densité. Une brève explication de cette théorie est faite dans l’introduction. Le modèle de Hubbard est présenté pour pallier à des problèmes de cette théorie face à certains matériaux, dont les cuprates. L’union de deux théories donne la DFT+U, une méthode permettant de bien représenter certains systèmes ayant des électrons fortement corrélés. Par la suite, un article traitant du couplage électron- phonon dans le supraconducteur NbC1−xNx est présenté. Les résultats illustrent bien le rôle de la surface de Fermi dans le mécanisme d’appariement électronique menant à la supraconductivité. Grâce à ces résultats, un modèle est développé qui permet d’expliquer comment la température de transition critique est influencée par le changement des fré- quences de vibration du cristal. Ensuite, des résultats de calcul d’oscillations quantiques obtenus par une analyse approfondie de surfaces de Fermi, permettant une comparaison directe avec des données expérimentales, sont présentés dans deux articles. Le premier traite d’un matériau dans la famille des pnictures de fer, le LaFe2P2. L’absence de su- praconductivité dans ce matériau s’explique par la différence entre sa surface de Fermi obtenue et celle du supraconducteur BaFe2As2. Le second article traite du matériau à fermions lourds, le YbCoIn5. Pour ce faire, une nouvelle méthode efficace de calcul des fréquences de Haas-van Alphen est développée. Finalement, un dernier article traitant du cuprate supraconducteur à haute température critique YBa2Cu3O6.5 est présenté. À l’aide de la DFT+U, le rôle de plusieurs ordres magnétiques sur la surface de Fermi est étudié. Ces résultats permettent de mieux comprendre les mesures d’oscillations quan- tiques mesurées dans ce matériau.
Resumo:
Cette thèse de doctorat présente les résultats d'un relevé spectropolarimétrique visant la détection directe de champs magnétiques dans le vent d'étoiles Wolf-Rayet (WR). Les observations furent entièrement obtenues à partir du spectropolarimètre ESPaDOnS, installé sur le télescope de l'observatoire Canada-France-Hawaii. Ce projet débuta par l'observation d'un étoile très variable de type WN4 appelée EZ CMa = WR6 = HD 50896 et se poursuivit par l'observation de 11 autres étoiles WR de notre galaxie. La méthode analytique utilisée dans cette étude vise à examiner les spectres de polarisation circulaire (Stokes V) et à identifier, au travers des raies d'émission, les signatures spectrales engendrées par la présence de champs magnétiques de type split monopole dans les vents des étoiles observées. Afin de pallier à la présence de polarisation linéaire dans les données de polarisation circulaire, le cross-talk entre les spectres Stokes Q et U et le spectre Stokes V fut modélisé et éliminé avant de procéder à l'analyse magnétique. En somme, aucun champ magnétique n'est détecté de manière significative dans les 12 étoiles observées. Toutefois, une détection marginale est signalée pour les étoiles WR134, WR137 et WR138 puisque quelques-unes de leur raies spectrales semblent indiquer la présence d'une signature magnétique. Pour chacune de ces trois étoiles, la valeur la plus probable du champ magnétique présent dans le vent stellaire est respectivement de B ~ 200, 130 et 80 G. En ce qui concerne les autres étoiles pour lesquelles aucune détection magnétique ne fut obtenue, la limite supérieure moyenne de l'intensité du champ qui pourrait être présent dans les données, sans toutefois être détecté, est évaluée à 500 G. Finalement, les résultats de cette étude ne peuvent confirmer l'origine magnétique des régions d'interaction en co-rotation (CIR) observées chez plusieurs étoiles WR. En effet, aucun champ magnétique n'est détecté de façon convaincante chez les quatre étoiles pour lesquelles la présence de CIR est soupçonnée.
Resumo:
Ce mémoire étudie le phénomène de wedge politics sous un angle communicationnel, en proposant d’identifier et décrire les principales pratiques rhétoriques associées au déploiement d’une stratégie de wedge politics par les nombreux acteurs du débat public sur le projet de loi C-391, intitulé Loi modifiant le Code criminel et la Loi sur les armes à feu (abrogation du registre des armes d’épaule). La posture rhétorique que nous adoptons se traduit par une démarche méthodologique et des analyses imbriquées en quatre étapes: 1) l’élaboration d’une mise en perspective historique relativement élargie du débat public entourant le projet de loi C-391, 2) la recension des principaux acteurs et des discours qu’ils ont produits à un moment fort de ce débat, entre mai 2009 et mai 2011, 3) une première analyse et description générale de la dynamique rhétorique entre les acteurs du débat pendant cette période, et enfin, 4) une analyse systématique des discours échangés entre le 1er août 2010 et le 22 septembre 2010 nous permettant d’identifier et de décrire les principales pratiques rhétoriques employées par les acteurs. Les dix pratiques que nous avons relevées sont: l’appel à l’action, le scapegoating, le ciblage, la personnalisation du débat, le blâme, la dérision, l’attribution d’intentions malveillantes, la menace de représailles de la part des électeurs, l’exploitation des clivages et le contraste. En conclusion, nous discutons en quoi ces pratiques rhétoriques peuvent contribuer à l’atteinte des objectifs d’une stratégie de wedge politics.
Resumo:
Cette étude examine comment l’argument de la pente glissante est employé dans les débats sur l’avortement et sur l’euthanasie. L’hypothèse est la suivante : l’argument de la pente glissante peut être utilisé de manière fallacieuse dans certains cas, mais il peut également s’avérer raisonnable dans d’autres. L’objectif de cette étude est d’étudier certains arguments récurrents du discours bioéthique afin de tester leur pertinence, leur validité et leurs conséquences sur le plan philosophique. Cette étude se divise en deux parties. La première partie s’intéresse à l’usage de la pente glissante de type « sorite » dans le débat sur l’avortement. La deuxième partie se penche sur l’argument de la pente glissante complète telle qu’il est employé dans le débat sur l’euthanasie.
Resumo:
Contexte & Objectifs : La manométrie perfusée conventionnelle et la manométrie haute résolution (HRM) ont permis le développement d’une variété de paramètres pour mieux comprendre la motilité de l'œsophage et quantifier les caractéristiques de la jonction œsophago-gastrique (JOG). Cependant, l'anatomie de la JOG est complexe et les enregistrements de manométrie détectent à la fois la pression des structures intrinsèques et des structures extrinsèques à l'œsophage. Ces différents composants ont des rôles distincts au niveau de la JOG. Les pressions dominantes ainsi détectées au niveau de la JOG sont attribuables au sphincter œsophagien inférieur (SOI) et aux piliers du diaphragme (CD), mais aucune des technologies manométriques actuelles n’est capable de distinguer ces différents composants de la JOG. Lorsqu’on analyse les caractéristiques de la JOG au repos, celle ci se comporte avant tout comme une barrière antireflux. Les paramètres manométriques les plus couramment utilisés dans ce but sont la longueur de la JOG et le point d’inversion respiratoire (RIP), défini comme le lieu où le pic de la courbe de pression inspiratoire change de positif (dans l’abdomen) à négatif (dans le thorax), lors de la classique manœuvre de « pull-through ». Cependant, l'importance de ces mesures reste marginale comme en témoigne une récente prise de position de l’American Gastroenterology Association Institute (AGAI) (1) qui concluait que « le rôle actuel de la manométrie dans le reflux gastro-œsophagien (RGO) est d'exclure les troubles moteurs comme cause des symptômes présentés par la patient ». Lors de la déglutition, la mesure objective de la relaxation de la JOG est la pression de relaxation intégrée (IRP), qui permet de faire la distinction entre une relaxation normale et une relaxation anormale de la JOG. Toutefois, puisque la HRM utilise des pressions moyennes à chaque niveau de capteurs, certaines études de manométrie laissent suggérer qu’il existe une zone de haute pression persistante au niveau de la JOG même si un transit est mis en évidence en vidéofluoroscopie. Récemment, la manométrie haute résolution « 3D » (3D-HRM) a été développée (Given Imaging, Duluth, GA) avec le potentiel de simplifier l'évaluation de la morphologie et de la physiologie de la JOG. Le segment « 3D » de ce cathéter de HRM permet l'enregistrement de la pression à la fois de façon axiale et radiale tout en maintenant une position fixe de la sonde, et évitant ainsi la manœuvre de « pull-through ». Par conséquent, la 3D-HRM devrait permettre la mesure de paramètres importants de la JOG tels que sa longueur et le RIP. Les données extraites de l'enregistrement fait par 3D-HRM permettraient également de différencier les signaux de pression attribuables au SOI des éléments qui l’entourent. De plus, l’enregistrement des pressions de façon radiaire permettrait d’enregistrer la pression minimale de chaque niveau de capteurs et devrait corriger cette zone de haute pression parfois persistante lors la déglutition. Ainsi, les objectifs de ce travail étaient: 1) de décrire la morphologie de la JOG au repos en tant que barrière antireflux, en comparant les mesures effectuées avec la 3D-HRM en temps réel, par rapport à celle simulées lors d’une manœuvre de « pull-through » et de déterminer quelles sont les signatures des pressions attribuables au SOI et au diaphragme; 2) d’évaluer la relaxation de la JOG pendant la déglutition en testant l'hypothèse selon laquelle la 3D-HRM permet le développement d’un nouveau paradigme (appelé « 3D eSleeve ») pour le calcul de l’IRP, fondé sur l’utilisation de la pression radiale minimale à chaque niveau de capteur de pression le long de la JOG. Ce nouveau paradigme sera comparé à une étude de transit en vidéofluoroscopie pour évaluer le gradient de pression à travers la JOG. Méthodes : Nous avons utilisé un cathéter 3D-HRM, qui incorpore un segment dit « 3D » de 9 cm au sein d’un cathéter HRM par ailleurs standard. Le segment 3D est composé de 12 niveaux (espacés de 7.5mm) de 8 capteurs de pression disposés radialement, soit un total de 96 capteurs. Neuf volontaires ont été étudiés au repos, où des enregistrements ont été effectués en temps réel et pendant une manœuvre de « pull-through » du segment 3D (mobilisation successive du cathéter de 5 mm, pour que le segment 3D se déplace le long de la JOG). Les mesures de la longueur du SOI et la détermination du RIP ont été réalisées. La longueur de la JOG a été mesurée lors du « pull-through » en utilisant 4 capteurs du segment 3D dispersés radialement et les marges de la JOG ont été définies par une augmentation de la pression de 2 mmHg par rapport à la pression gastrique ou de l’œsophage. Pour le calcul en temps réel, les limites distale et proximale de la JOG ont été définies par une augmentation de pression circonférentielle de 2 mmHg par rapport à la pression de l'estomac. Le RIP a été déterminée, A) dans le mode de tracé conventionnel avec la méthode du « pull-through » [le RIP est la valeur moyenne de 4 mesures] et B) en position fixe, dans le mode de représentation topographique de la pression de l’œsophage, en utilisant l’outil logiciel pour déterminer le point d'inversion de la pression (PIP). Pour l'étude de la relaxation de la JOG lors de la déglutition, 25 volontaires ont été étudiés et ont subi 3 études de manométrie (10 déglutitions de 5ml d’eau) en position couchée avec un cathéter HRM standard et un cathéter 3D-HRM. Avec la 3D-HRM, l’analyse a été effectuée une fois avec le segment 3D et une fois avec une partie non 3D du cathéter (capteurs standard de HRM). Ainsi, pour chaque individu, l'IRP a été calculée de quatre façons: 1) avec la méthode conventionnelle en utilisant le cathéter HRM standard, 2) avec la méthode conventionnelle en utilisant le segment standard du cathéter 3D-HRM, 3) avec la méthode conventionnelle en utilisant le segment « 3D » du cathéter 3D-HRM, et 4) avec le nouveau paradigme (3D eSleeve) qui recueille la pression minimale de chaque niveau de capteurs (segment 3D). Quatorze autres sujets ont subi une vidéofluoroscopie simultanée à l’étude de manométrie avec le cathéter 3D-HRM. Les données de pression ont été exportés vers MATLAB ™ et quatre pressions ont été mesurées simultanément : 1) la pression du corps de l’œsophage, 2cm au-dessus de la JOG, 2) la pression intragastrique, 3) la pression radiale moyenne de la JOG (pression du eSleeve) et 4) la pression de la JOG en utilisant la pression minimale de chaque niveau de capteurs (pression du 3D eSleeve). Ces données ont permis de déterminer le temps permissif d'écoulement du bolus (FPT), caractérisé par la période au cours de laquelle un gradient de pression existe à travers la JOG (pression œsophagienne > pression de relaxation de la JOG > pression gastrique). La présence ou l'absence du bolus en vidéofluoroscopie et le FPT ont été codés avec des valeurs dichotomiques pour chaque période de 0,1 s. Nous avons alors calculé la sensibilité et la spécificité correspondant à la valeur du FPT pour la pression du eSleeve et pour la pression du 3D eSleeve, avec la vidéofluoroscopie pour référence. Résultats : Les enregistrements avec la 3D-HRM laissent suggérer que la longueur du sphincter évaluée avec la méthode du « pull-through » était grandement exagéré en incorporant dans la mesure du SOI les signaux de pression extrinsèques à l’œsophage, asymétriques et attribuables aux piliers du diaphragme et aux structures vasculaires. L’enregistrement en temps réel a permis de constater que les principaux constituants de la pression de la JOG au repos étaient attribuables au diaphragme. L’IRP calculé avec le nouveau paradigme 3D eSleeve était significativement inférieur à tous les autres calculs d'IRP avec une limite supérieure de la normale de 12 mmHg contre 17 mmHg pour l’IRP calculé avec la HRM standard. La sensibilité (0,78) et la spécificité (0,88) du 3D eSleeve étaient meilleurs que le eSleeve standard (0,55 et 0,85 respectivement) pour prédire le FPT par rapport à la vidéofluoroscopie. Discussion et conclusion : Nos observations suggèrent que la 3D-HRM permet l'enregistrement en temps réel des attributs de la JOG, facilitant l'analyse des constituants responsables de sa fonction au repos en tant que barrière antireflux. La résolution spatiale axiale et radiale du segment « 3D » pourrait permettre de poursuivre cette étude pour quantifier les signaux de pression de la JOG attribuable au SOI et aux structures extrinsèques (diaphragme et artéfacts vasculaires). Ces attributs du cathéter 3D-HRM suggèrent qu'il s'agit d'un nouvel outil prometteur pour l'étude de la physiopathologie du RGO. Au cours de la déglutition, nous avons évalué la faisabilité d’améliorer la mesure de l’IRP en utilisant ce nouveau cathéter de manométrie 3D avec un nouveau paradigme (3D eSleeve) basé sur l’utilisation de la pression radiale minimale à chaque niveau de capteurs de pression. Nos résultats suggèrent que cette approche est plus précise que celle de la manométrie haute résolution standard. La 3D-HRM devrait certainement améliorer la précision des mesures de relaxation de la JOG et cela devrait avoir un impact sur la recherche pour modéliser la JOG au cours de la déglutition et dans le RGO.
Resumo:
Cette recherche documente les façons de faire l’évaluation formative d’enseignants de français du Lycée exerçant en contexte de classes pléthoriques au Sénégal. Le choix récent dans ce pays de l’approche par compétences invite à privilégier cette fonction de l’évaluation, au regard de son potentiel pour la progression des apprentissages des élèves (Allal & Mottier Lopez, 2005; Black & Wiliam, 2009; Morrissette, 2010). Cependant, les orientations ministérielles concernant sa mise en œuvre sont très générales, et jusqu’ici, la recherche a laissé dans l’ombre son application en contexte de classes pléthoriques. Puisant au domaine des savoirs pratiques (Schön, 1983) et à une vision interactive et située de l’évaluation formative (Mottier Lopez, 2007; Morrissette, 2010), j’ai conduit une démarche de recherche collaborative auprès de 14 enseignants de français exerçant dans le même Lycée, ponctuée par 6 entretiens de groupe. Un premier registre d’analyse a décrit des façons de faire rattachées à trois dimensions de la pratique de l’évaluation formative: l’analyse du contexte de la pratique, la construction négociée du savoir et la gestion de l’effectif. Un second registre d’analyse de leurs façons de faire en contexte d’«étrangeté culturelle» (Douville, 2002) a permis de conceptualiser leur savoir-évaluer en relation avec leur façon d’interpréter les problèmes qui se posent aux élèves, leur conception de l’erreur et leurs manières de réinventer les modes d’accomplissement traditionnels de l’évaluation ancrés dans la culture scolaire.
Resumo:
Cette recherche propose une analyse qualitative du contenu de signalements retenus à la protection de la jeunesse et leur évaluation pour des enfants de minorités visibles. Les premiers objectifs de cette recherche sont de décrire les deux premières étapes de l’intervention en protection de la jeunesse, soit la réception du signalement et l’évaluation du besoin de protection. Par la suite, elle vise l’élaboration d’une typologie de familles de minorités visibles signalées à la protection de la jeunesse. Une analyse qualitative de contenu est conduite en utilisant une grille d’analyse des dossiers de 48 situations d’enfants signalés à la protection de la jeunesse. Il s’agit d’une analyse secondaire de données d’une étude plus large portant sur l’intervention en protection de la jeunesse auprès de familles de minorités visibles. Les résultats de la présente étude montrent que les informations consignées aux dossiers par les intervenants respectent les dimensions légales du jugement sur la compromission du développement ou de la sécurité d’un enfant. Toutefois, l’absence d’éléments ethnoculturels dans la majorité des dossiers, ou leur traitement superficiel, sont surprenants. La typologie découlant de cette analyse décrit quatre profils présentant des dynamiques familiales distinctes : les familles traversant une crise, les familles qui abdiquent leur rôle parental, les familles isolées et les familles éclatées. Ces résultats rendent compte de la diversité des dynamiques familiales et par conséquent, des besoins de ces familles quant aux interventions des services de protection. Enfin, étant donné l’importance de l’évaluation et de ses conclusions dans la trajectoire de ces familles à l’égard de la DPJ, l’intégration des éléments ethnoculturels devrait être systématique afin de leur offrir une réponse adaptée et culturellement sensible.
Resumo:
The work done in this master's thesis, presents a new system for the recognition of human actions from a video sequence. The system uses, as input, a video sequence taken by a static camera. A binary segmentation method of the the video sequence is first achieved, by a learning algorithm, in order to detect and extract the different people from the background. To recognize an action, the system then exploits a set of prototypes generated from an MDS-based dimensionality reduction technique, from two different points of view in the video sequence. This dimensionality reduction technique, according to two different viewpoints, allows us to model each human action of the training base with a set of prototypes (supposed to be similar for each class) represented in a low dimensional non-linear space. The prototypes, extracted according to the two viewpoints, are fed to a $K$-NN classifier which allows us to identify the human action that takes place in the video sequence. The experiments of our model conducted on the Weizmann dataset of human actions provide interesting results compared to the other state-of-the art (and often more complicated) methods. These experiments show first the sensitivity of our model for each viewpoint and its effectiveness to recognize the different actions, with a variable but satisfactory recognition rate and also the results obtained by the fusion of these two points of view, which allows us to achieve a high performance recognition rate.
Resumo:
Ce mémoire propose une analyse du rôle qu’exerce le collectionneur d’art, un acteur ayant une capacité accrue à agir concrètement sur une part importante du monde artistique. La capacité des collectionneurs à agir comme mécènes pour certains artistes, à acheter leurs œuvres, à les vendre, à les exposer, sont autant d’actions qui ont un impact direct sur la carrière des artistes. Plus le collectionneur est reconnu comme une instance capable de légitimer le travail d’un artiste, plus il peut voir sa sphère d’influence devenir importante. Pour adéquatement saisir les effets qu’ont ces actions sur l’entièreté du monde artistique, nous avons choisi de prendre comme objet d’étude une figure particulière qui exemplifie le méga-collectionneur, Charles Saatchi. En assumant lui-même, tour-à-tour, plusieurs rôles dans le monde de l’art, il est reconnu comme un agent apte à reconnaître la légitimité d'une proposition artistique. La première partie de ce mémoire nous permet d'observer l'élaboration d'une véritable tradition du collectionnement et ses principaux acteurs derrière celle-ci. Dans un deuxième temps, le mémoire présente les théories qui expliquent l'avènement du pouvoir prépondérant reconnu au méga-collectionneur. Sont ainsi observés les principes de coopération, propres aux « mondes de l'art », ainsi que les phénomènes de médiation. Finalement, nous étudions, décrivons et définissons les actions et les interactions des divers acteurs et agents qui participent au réseau dont Saatchi est le centre afin de cerner la place qu’il occupe dans le champ culturel, donc sa propre légitimité et sa capacité à reconnaître et à consacrer d’autres acteurs.
Resumo:
Le méthotrexate (MTX), un agent anti-cancéreux fréquemment utilisé en chimiothérapie, requiert généralement un suivi thérapeutique de la médication (Therapeutic Drug Monitoring, TDM) pour surveiller son niveau sanguin chez le patient afin de maximiser son efficacité tout en limitant ses effets secondaires. Malgré la fenêtre thérapeutique étroite entre l’efficacité et la toxicité, le MTX reste, à ce jour, un des agents anti-cancéreux les plus utilisés au monde. Les techniques analytiques existantes pour le TDM du MTX sont coûteuses, requièrent temps et efforts, sans nécessairement fournir promptement les résultats dans le délai requis. Afin d’accélérer le processus de dosage du MTX en TDM, une stratégie a été proposée basée sur un essai compétitif caractérisé principalement par le couplage plasmonique d’une surface métallique et de nanoparticules d’or. Plus précisément, l’essai quantitatif exploite la réaction de compétition entre le MTX et une nanoparticule d’or fonctionnalisée avec l’acide folique (FA-AuNP) ayant une affinité pour un récepteur moléculaire, la réductase humaine de dihydrofolate (hDHFR), une enzyme associée aux maladies prolifératives. Le MTX libre mixé avec les FA-AuNP, entre en compétition pour les sites de liaison de hDHFR immobilisés sur une surface active en SPR ou libres en solution. Par la suite, les FA-AuNP liées au hDHFR fournissent une amplification du signal qui est inversement proportionnelle à la concentration de MTX. La résonance des plasmons de surface (SPR) est généralement utilisée comme une technique spectroscopique pour l’interrogation des interactions biomoléculaires. Les instruments SPR commerciaux sont généralement retrouvés dans les grands laboratoires d’analyse. Ils sont également encombrants, coûteux et manquent de sélectivité dans les analyses en matrice complexe. De plus, ceux-ci n’ont pas encore démontré de l’adaptabilité en milieu clinique. Par ailleurs, les analyses SPR des petites molécules comme les médicaments n’ont pas été explorés de manière intensive dû au défi posé par le manque de la sensibilité de la technique pour cette classe de molécules. Les développements récents en science des matériaux et chimie de surfaces exploitant l’intégration des nanoparticules d’or pour l’amplification de la réponse SPR et la chimie de surface peptidique ont démontré le potentiel de franchir les limites posées par le manque de sensibilité et l’adsorption non-spécifique pour les analyses directes dans les milieux biologiques. Ces nouveaux concepts de la technologie SPR seront incorporés à un système SPR miniaturisé et compact pour exécuter des analyses rapides, fiables et sensibles pour le suivi du niveau du MTX dans le sérum de patients durant les traitements de chimiothérapie. L’objectif de cette thèse est d’explorer différentes stratégies pour améliorer l’analyse des médicaments dans les milieux complexes par les biocapteurs SPR et de mettre en perspective le potentiel des biocapteurs SPR comme un outil utile pour le TDM dans le laboratoire clinique ou au chevet du patient. Pour atteindre ces objectifs, un essai compétitif colorimétrique basé sur la résonance des plasmons de surface localisée (LSPR) pour le MTX fut établi avec des nanoparticules d’or marquées avec du FA. Ensuite, cet essai compétitif colorimétrique en solution fut adapté à une plateforme SPR. Pour les deux essais développés, la sensibilité, sélectivité, limite de détection, l’optimisation de la gamme dynamique et l’analyse du MTX dans les milieux complexes ont été inspectés. De plus, le prototype de la plateforme SPR miniaturisée fut validé par sa performance équivalente aux systèmes SPR existants ainsi que son utilité pour analyser les échantillons cliniques des patients sous chimiothérapie du MTX. Les concentrations de MTX obtenues par le prototype furent comparées avec des techniques standards, soit un essai immunologique basé sur la polarisation en fluorescence (FPIA) et la chromatographie liquide couplée avec de la spectrométrie de masse en tandem (LC-MS/MS) pour valider l’utilité du prototype comme un outil clinique pour les tests rapides de quantification du MTX. En dernier lieu, le déploiement du prototype à un laboratoire de biochimie dans un hôpital démontre l’énorme potentiel des biocapteurs SPR pour utilisation en milieux clinique.
Resumo:
Problématique : Le concept d’« Hôpital promoteur de santé » (HPS) a émergé dans le sillon de la Charte d’Ottawa (1986) qui plaide notamment pour une réorientation des services de santé vers des services plus promoteurs de santé. Il cible la santé des patients, du personnel, de la communauté et de l’organisation elle-même. Dans le cadre de la réforme du système de santé au Québec qui vise à rapprocher les services de la population et à faciliter le cheminement de toute personne au sein d’un réseau local de services de santé et de services sociaux (RLS), l’adoption du concept HPS semble constituer une fenêtre d’opportunité pour les CHU, désormais inclus dans des réseaux universitaires intégrés de soins de santé et rattachés aux RLS, pour opérer des changements organisationnels majeurs. Face au peu de données scientifiques sur l’implantation des dimensions des projets HPS, les établissements de santé ont besoin d’être accompagnés dans ce processus par le développement de stratégies claires et d’outils concrets pour soutenir l’implantation. Notre étude porte sur le premier CHU à Montréal qui a décidé d’adopter le concept et d’implanter notamment un projet pilote HPS au sein de son centre périnatal. Objectifs : Les objectifs de la thèse sont 1) d’analyser la théorie d’intervention du projet HPS au sein du centre périnatal; 2) d’analyser l’implantation du projet HPS et; 3) d’explorer l’intérêt de l’évaluation développementale pour appuyer le processus d’implantation. Méthodologie : Pour mieux comprendre l’implantation du projet HPS, nous avons opté pour une étude de cas qualitative. Nous avons d’abord analysé la théorie d’intervention, en procédant à une revue de la littérature dans le but d’identifier les caractéristiques du projet HPS ainsi que les conditions nécessaires à son implantation. En ce qui concerne l’analyse d’implantation, notre étude de cas unique a intégré deux démarches méthodologiques : l’une visant à apprécier le niveau d’implantation et l’autre, à analyser les facteurs facilitants et les contraintes. Enfin, nous avons exploré l’intérêt d’une évaluation développementale pour appuyer le processus d’implantation. À partir d’un échantillonnage par choix raisonnés, les données de l’étude de cas ont été collectées auprès d’informateurs clés, des promoteurs du projet HPS, des gestionnaires, des professionnels et de couples de patients directement concernés par l’implantation du projet HPS au centre périnatal. Une analyse des documents de projet a été effectuée et nous avons procédé à une observation participante dans le milieu. Résultats : Le premier article sur l’analyse logique présente les forces et les faiblesses de la mise en oeuvre du projet HPS au centre périnatal et offre une meilleure compréhension des facteurs susceptibles d’influencer l’implantation. Le second article apprécie le niveau d’implantation des quatre dimensions du projet HPS. Grâce à la complémentarité des différentes sources utilisées, nous avons réussi à cerner les réussites globales, les activités partiellement implantées ou en cours d’implantation et les activités reposant sur une théorie d’intervention inadéquate. Le troisième article met en évidence l’influence des caractéristiques de l’intervention, des contextes externe et interne, des caractéristiques individuelles sur le processus d’implantation à partir du cadre d’analyse de l’implantation développé par Damschroder et al. (2009). Enfin, le dernier article présente les défis rencontrés par la chercheure dans sa tentative d’utilisation de l’évaluation développementale et propose des solutions permettant d’anticiper les difficultés liées à l’intégration des exigences de recherche et d’utilisation. Conclusion : Cette thèse contribue à enrichir la compréhension de l’implantation du projet HPS dans les établissements de santé et, particulièrement, en contexte périnatal. Les résultats obtenus sont intéressants pour les chercheurs et les gestionnaires d’hôpitaux ou d’établissements de santé qui souhaitent implanter ou évaluer les projets HPS dans leurs milieux.
Resumo:
Contexte et problématique. Selon l’Association Canadienne d’Équitation Thérapeutique (ACET), l’équitation thérapeutique comprend toutes les activités équestres s’adressant à une clientèle présentant des déficiences. L’équitation thérapeutique compte plusieurs approches, notamment l’hippothérapie, une stratégie de réadaptation offerte par des ergothérapeutes, physiothérapeutes et orthophonistes. L’hippothérapie se base sur le mouvement tridimensionnel induit par le cheval lequel favorise l’amélioration de diverses fonctions neuromotrices notamment le tonus du tronc et de la tête, la posture debout et les ajustements posturaux. Bien que les approches d’équitation thérapeutique prennent de l’ampleur au Québec, il n’y a toujours aucune règlementation officielle. Il existe donc une confusion importante entre les différentes approches d’équitation thérapeutique et l’hippothérapie actuellement reconnue comme la seule approche médicale de réadaptation utilisant le cheval. Les clientèles présentant de lourdes déficiences neuro-musculo-squelettiques se voient donc régulièrement référées dans des centres qui n’offrent pas d’hippothérapie et sont confrontées à des risques importants. Objectifs. Modéliser les interventions d’équitation thérapeutique afin de rendre explicites les composantes de ces interventions et les liens qui les unissent ainsi qu’analyser la plausibilité des interventions à atteindre les résultats escomptés. Méthodologie. Les interventions d’équitation thérapeutique ont été modélisées par des entrevues réalisées auprès des principales personnes offrant des services d’équitation thérapeutique au Québec. Une revue de la littérature a été conduite sur les principes de réadaptation qui sous-tendent les interventions. L’ensemble des données recueillies ont été analysé selon une procédure habituelle d’analyse de contenu qualitatif. Résultats. Les modèles créés permettent d’améliorer les connaissances des pratiques d’équitation thérapeutiques et d’hippothérapie au Québec. Conséquences. Les modèles permettent d’entamer une réflexion sur la règlementation de ces pratiques au Québec et au Canada ainsi que de soutenir les processus de références dans les différents centres québécois.
Resumo:
Suite aux grands changements politiques, économiques et sociaux que l’Occident a connus depuis plus d’un siècle, de nombreux problèmes ont émergé, de nouveaux défis ont été lancés et plusieurs approches et solutions ont été avancées. L’avènement de la démocratie, un exploit humain inestimable, a plus ou moins règlementé la pluralité idéologique, pour permettre un exercice politique organisé. Aujourd’hui, dans le nouvel ordre mondial, c’est la pluralité morale et religieuse qui a besoin d’être gérée; un défi pour les institutions démocratiques et pour la société civile, afin de réaliser un mieux vivre-ensemble dans le dialogue, la compréhension et le compromis. Or, beaucoup de travail est encore à faire : dans un premier temps, à l’intérieur de chaque tradition religieuse; dans un deuxième temps, entre les différentes traditions; et dans un troisième temps, entre ces traditions et la modernité. Le ‘dogmatisme’ est au cœur de ces débats, qu’il soit d’ordre traditionnel ou moderne, il entrave la raison dans son processus de libération et d’émancipation. La problématique de ce mémoire concerne la gestion de la pluralité morale et religieuse en Occident. Dans ce travail, nous allons essayer de démontrer comment la libération du dogmatisme en général et la libération du ‘dogmatisme’ musulman, en particulier, peuvent contribuer à la réalisation d’un mieux vivre-ensemble en Occident. Pour ce faire, nous analyserons les projets de deux penseurs musulmans contemporains : Muhammad Arkoun et Tariq Ramadan. Notre recherche va essentiellement se pencher sur leurs attitudes vis-à-vis de la tradition et de la modernité, car, nous pensons que l’enjeu du ‘dogmatisme’ est lié aux rapports des musulmans à leur tradition et à la modernité. Selon nos deux penseurs, la libération du ‘dogmatisme’ musulman n’est possible qu’à condition de pouvoir changer à la fois notre rapport à la tradition et à la modernité. Arkoun pense que ce changement doit suivre le modèle de la libération occidentale, au moyen d’une critique subversive de la tradition islamique. Cependant, Ramadan opte pour une réforme radicale de la pensée islamique qui vise une critique globale de la tradition, mais, qui épargne les fondements de la foi : le ‘sacré’.
Resumo:
La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.
Resumo:
Ce présent mémoire est animé par une forte conviction : les frontières disciplinaires entre les sociologues et les écrivains ne doivent pas se transmuer en barbelés obstruant un éclairage de sens renouvelé sur la réalité sociale. Alors qu’au tournant du siècle dernier, le roman réaliste et la sociologie allemande se sont mutuellement inspirés, au fil du temps les canaux de communication se sont progressivement brouillés. Notre démarche consiste donc à renouer avec la tradition du monde germanophone à l’orée du 20e siècle, période au cours de laquelle la sociologie émerge comme discipline propre. Plus précisément, nous chercherons à faire converser les deux régimes d’écriture afin d’une part, d’explorer les vertus cognitives de la littérature pour la sociologie et d’autre part de mieux comprendre comment les hommes contemporains aux premiers sociologues entrevoyaient l’époque des temps modernes. Pour ce faire, nous nous appuierons sur la sociologie de Max Weber (1864-1920), un des pères fondateurs de la discipline, ainsi que sur l’analyse de trois romans réalistes, signés par deux romanciers germanophones du début du 20e siècle, c’est-à-dire Joseph Roth (1894-1939) et Thomas Mann (1875-1955).