329 resultados para Procédures de remboursement


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire explore la relation qui lie démocratie et légitimité politique, dans une perspective épistémique. La démocratie, dans son acception la plus générale, confère à chacun la possibilité de faire valoir les intérêts qu'il estime être les siens et ceux de sa communauté, en particulier à l’occasion d’un scrutin. Cette procédure décisionnelle qu’est le vote consacre ainsi en quelque sorte la liberté et l’égalité dont profitent chacun des citoyens, et confère une certaine légitimité au processus décisionnel. Cela dit, si le vote n’est pas encadré par des considérations épistémiques, rien ne garantit que le résultat politique qui en découlera sera souhaitable tant pour les individus que pour la collectivité: il est tout à fait permis d’imaginer que des politiques discriminatoires, économiquement néfastes ou simplement inefficaces voient ainsi le jour, et prennent effet au détriment de tous. En réponse à ce problème, différentes théories démocratiques ont vu le jour et se sont succédé, afin de tenter de lier davantage le processus démocratique à l’atteinte d’objectifs politiques bénéfiques pour la collectivité. Au nombre d’entre elles, la démocratie délibérative a proposé de substituer la seule confrontation d’intérêts de la démocratie agrégative par une recherche collective du bien commun, canalisée autour de procédures délibératives appelées à légitimer sur des bases plus solides l’exercice démocratique. À sa suite, la démocratie épistémique s’est inspirée des instances délibératives en mettant davantage l’accent sur la qualité des résultats obtenus que sur les procédures elles-mêmes. Au final, un même dilemme hante chaque fois les différentes théories : est-il préférable de construire les instances décisionnelles en se concentrant prioritairement sur les critères procéduraux eux-mêmes, au risque de voir de mauvaises décisions filtrer malgré tout au travers du processus sans pouvoir rien y faire, ou devons-nous avoir d’entrée de jeu une conception plus substantielle de ce qui constitue une bonne décision, au risque cette fois de sacrifier la liberté de choix qui est supposé caractériser un régime démocratique? La thèse que nous défendrons dans ce mémoire est que le concept d’égalité politique peut servir à dénouer ce dilemme, en prenant aussi bien la forme d’un critère procédural que celle d’un objectif politique préétabli. L’égalité politique devient en ce sens une source normative forte de légitimité politique. En nous appuyant sur le procéduralisme épistémique de David Estlund, nous espérons avoir démontré au terme de ce mémoire que l’atteinte d’une égalité politique substantielle par le moyen de procédures égalitaires n’est pas une tautologie hermétique, mais plutôt un mécanisme réflexif améliorant tantôt la robustesse des procédures décisionnelles, tantôt l’atteinte d’une égalité tangible dans les rapports entre citoyens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis une vingtaine d’années, les systèmes d’enseignement de très nombreux pays sont engagés dans des transformations profondes de leurs politiques éducatives. D’une part, on assiste progressivement à une globalisation et à une européanisation des politiques éducatives. Si elles restent formellement définies par les États, ces dernières sont de plus en plus enchâssées dans des procédures de mise en comparaison de leurs résultats (via par exemple les classements des pays produits par l’enquête Pisa de l’OCDE ; Lingard/Rawolle/Taylor, 2005 ; Mangez/Cattonar, 2009) et dans des procédures de coordination de leurs objectifs. Ainsi en Europe, les ministres de l’éducation des États-membres, avec l’aide de la Commission européenne, se sont mis d’accord sur un “Cadre européen Éducation et formation tout au long de la vie” (CEEFTLV)1. Les objectifs sont formulés en s’appuyant sur la définition d’indicateurs et de niveaux de référence de ces indicateurs (benchmark) que chaque pays s’engage à essayer d’atteindre. Les objectifs opérationnels sont formulés sous forme de “chiffres” de référence. Comme l’avance Ozga (2009), on gouverne par les “nombres”. Cette construction progressive d’un “espace européen de l’éducation” s’opère notamment par la mise en place de dispositifs de “coordination” basés sur ces outils (Lawn/Grek, 2012).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche qualitative a comme objectif de comprendre et d’analyser l’expérience pénale d’individus ayant été déclarés « délinquants dangereux » ou « délinquants à contrôler », en vertu des dispositions légales prévues à la Partie XXIV (articles 752 et suivantes) du Code criminel canadien. Plus spécifiquement, nous avons voulu mettre en lumière comment se vit l’apposition de ce statut « dangereux » au plan personnel et social au moment des procédures judiciaires, lors de l’exécution de leur peine d’incarcération et dans le cadre de leur liberté surveillée, le cas échéant. Pour ce faire, nous avons rencontré dix-neuf hommes visés par ces dispositions légales afin de restituer en profondeur leur expérience pénale par rapport à ce « statut » légalement imposé, et ce, à partir de leur point de vue. Il en ressort que les individus faisant l’objet d’une déclaration spéciale traversent un grand bouleversement émotif, d’une part, en lien avec les délits qu’ils ont commis et d’autre part, relativement à la peine leur ayant été imposée. Ces sentiments complexes semblent se positionner en paradoxe entre un sentiment de culpabilité pour les gestes commis et l’impression d’avoir été traités injustement. Les hommes rencontrés partagent également un parcours pénal difficile marqué par de l’exclusion, du rejet ainsi que des mauvais traitements physiques ou psychologiques. Ils rapportent beaucoup d’impuissance à pouvoir faire évoluer leur situation, soit de se défaire de leur statut « dangereux ». Enfin, l’analyse des propos rapportés montre que l’imposition d’une déclaration spéciale ne constitue pas une « simple » peine puisqu’elle induit un processus de stigmatisation immédiat, discréditant et permanent qui a des implications importantes au niveau social et personnel. Ces implications ont de fait, engendré une transformation à l’égard de la perception qu’ils ont d’eux-mêmes ainsi que dans leurs façons de se comporter socialement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis une vingtaine d’années, les systèmes d’enseignement de très nombreux pays sont engagés dans des transformations profondes de leurs politiques éducatives. D’une part, on assiste progressivement à une globalisation et à une européanisation des politiques éducatives. Si elles restent formellement définies par les États, ces dernières sont de plus en plus enchâssées dans des procédures de mise en comparaison de leurs résultats (via par exemple les classements des pays produits par l’enquête Pisa de l’OCDE ; Lingard/Rawolle/Taylor, 2005 ; Mangez/Cattonar, 2009) et dans des procédures de coordination de leurs objectifs. Ainsi en Europe, les ministres de l’éducation des États-membres, avec l’aide de la Commission européenne, se sont mis d’accord sur un “Cadre européen Éducation et formation tout au long de la vie” (CEEFTLV)1. Les objectifs sont formulés en s’appuyant sur la définition d’indicateurs et de niveaux de référence de ces indicateurs (benchmark) que chaque pays s’engage à essayer d’atteindre. Les objectifs opérationnels sont formulés sous forme de “chiffres” de référence. Comme l’avance Ozga (2009), on gouverne par les “nombres”. Cette construction progressive d’un “espace européen de l’éducation” s’opère notamment par la mise en place de dispositifs de “coordination” basés sur ces outils (Lawn/Grek, 2012).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes a methodology for analyze coastal territories focused on the functional analysis. It establishes analysis and diagnosis procedures for the activities of a coastal territory, and organizes its monitoring during time, allowing a consistent definition for the coastal territories as engines spaces or integrated spaces

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Certaines recherches ont investigué le traitement visuel de bas et de plus hauts niveaux chez des personnes neurotypiques et chez des personnes ayant un trouble du spectre de l’autisme (TSA). Cependant, l’interaction développementale entre chacun de ces niveaux du traitement visuel n’est toujours pas bien comprise. La présente thèse a donc deux objectifs principaux. Le premier objectif (Étude 1) est d’évaluer l’interaction développementale entre l’analyse visuelle de bas niveaux et de niveaux intermédiaires à travers différentes périodes développementales (âge scolaire, adolescence et âge adulte). Le second objectif (Étude 2) est d’évaluer la relation fonctionnelle entre le traitement visuel de bas niveaux et de niveaux intermédiaires chez des adolescents et des adultes ayant un TSA. Ces deux objectifs ont été évalué en utilisant les mêmes stimuli et procédures. Plus précisément, la sensibilité de formes circulaires complexes (Formes de Fréquences Radiales ou FFR), définies par de la luminance ou par de la texture, a été mesurée avec une procédure à choix forcés à deux alternatives. Les résultats de la première étude ont illustré que l’information locale des FFR sous-jacents aux processus visuels de niveaux intermédiaires, affecte différemment la sensibilité à travers des périodes développementales distinctes. Plus précisément, lorsque le contour est défini par de la luminance, la performance des enfants est plus faible comparativement à celle des adolescents et des adultes pour les FFR sollicitant la perception globale. Lorsque les FFR sont définies par la texture, la sensibilité des enfants est plus faible comparativement à celle des adolescents et des adultes pour les conditions locales et globales. Par conséquent, le type d’information locale, qui définit les éléments locaux de la forme globale, influence la période à laquelle la sensibilité visuelle atteint un niveau développemental similaire à celle identifiée chez les adultes. Il est possible qu’une faible intégration visuelle entre les mécanismes de bas et de niveaux intermédiaires explique la sensibilité réduite des FFR chez les enfants. Ceci peut être attribué à des connexions descendantes et horizontales immatures ainsi qu’au sous-développement de certaines aires cérébrales du système visuel. Les résultats de la deuxième étude ont démontré que la sensibilité visuelle en autisme est influencée par la manipulation de l’information locale. Plus précisément, en présence de luminance, la sensibilité est seulement affectée pour les conditions sollicitant un traitement local chez les personnes avec un TSA. Cependant, en présence de texture, la sensibilité est réduite pour le traitement visuel global et local. Ces résultats suggèrent que la perception de formes en autisme est reliée à l’efficacité à laquelle les éléments locaux (luminance versus texture) sont traités. Les connexions latérales et ascendantes / descendantes des aires visuelles primaires sont possiblement tributaires d’un déséquilibre entre les signaux excitateurs et inhibiteurs, influençant ainsi l’efficacité à laquelle l’information visuelle de luminance et de texture est traitée en autisme. Ces résultats supportent l’hypothèse selon laquelle les altérations de la perception visuelle de bas niveaux (local) sont à l’origine des atypies de plus hauts niveaux chez les personnes avec un TSA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet illustre cinq études, mettant l'emphase sur le développement d'une nouvelle approche diagnostique cardiovasculaire afin d'évaluer le niveau d’oxygène contenu dans le myocarde ainsi que sa fonction microvasculaire. En combinant une séquence de résonance magnétique cardiovasculaire (RMC) pouvant détecter le niveau d’oxygène (OS), des manœuvres respiratoires ainsi que des analyses de gaz artériels peuvent être utilisés comme procédure non invasive destinée à induire une réponse vasoactive afin d’évaluer la réserve d'oxygénation, une mesure clé de la fonction vasculaire. Le nombre de tests diagnostiques cardiaques prescrits ainsi que les interventions, sont en pleine expansion. L'imagerie et tests non invasifs sont souvent effectués avant l’utilisation de procédures invasives. L'imagerie cardiaque permet d’évaluer la présence ou absence de sténoses coronaires, un important facteur économique dans notre système de soins de santé. Les techniques d'imagerie non invasives fournissent de l’information précise afin d’identifier la présence et l’emplacement du déficit de perfusion chez les patients présentant des symptômes d'ischémie myocardique. Néanmoins, plusieurs techniques actuelles requièrent la nécessité de radiation, d’agents de contraste ou traceurs, sans oublier des protocoles de stress pharmacologiques ou physiques. L’imagerie RMC peut identifier une sténose coronaire significative sans radiation. De nouvelles tendances d’utilisation de RMC visent à développer des techniques diagnostiques qui ne requièrent aucun facteur de stress pharmacologiques ou d’agents de contraste. L'objectif principal de ce projet était de développer et tester une nouvelle technique diagnostique afin d’évaluer la fonction vasculaire coronarienne en utilisant l' OS-RMC, en combinaison avec des manœuvres respiratoires comme stimulus vasoactif. Ensuite, les objectifs, secondaires étaient d’utilisés l’OS-RMC pour évaluer l'oxygénation du myocarde et la réponse coronaire en présence de gaz artériels altérés. Suite aux manœuvres respiratoires la réponse vasculaire a été validée chez un modèle animal pour ensuite être utilisé chez deux volontaires sains et finalement dans une population de patients atteints de maladies cardiovasculaires. Chez le modèle animal, les manœuvres respiratoires ont pu induire un changement significatif, mesuré intrusivement par débit sanguin coronaire. Il a été démontré qu’en présence d'une sténose coronarienne hémodynamiquement significative, l’OS-RMC pouvait détecter un déficit en oxygène du myocarde. Chez l’homme sain, l'application de cette technique en comparaison avec l'adénosine (l’agent standard) pour induire une vasodilatation coronarienne et les manœuvres respiratoires ont pu induire une réponse plus significative en oxygénation dans un myocarde sain. Finalement, nous avons utilisé les manœuvres respiratoires parmi un groupe de patients atteint de maladies coronariennes. Leurs myocardes étant altérées par une sténose coronaire, en conséquence modifiant ainsi leur réponse en oxygénation. Par la suite nous avons évalué les effets des gaz artériels sanguins sur l'oxygénation du myocarde. Ils démontrent que la réponse coronarienne est atténuée au cours de l’hyperoxie, suite à un stimuli d’apnée. Ce phénomène provoque une réduction globale du débit sanguin coronaire et un déficit d'oxygénation dans le modèle animal ayant une sténose lorsqu’un supplément en oxygène est donné. En conclusion, ce travail a permis d'améliorer notre compréhension des nouvelles techniques diagnostiques en imagerie cardiovasculaire. Par ailleurs, nous avons démontré que la combinaison de manœuvres respiratoires et l’imagerie OS-RMC peut fournir une méthode non-invasive et rentable pour évaluer la fonction vasculaire coronarienne régionale et globale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les procédures appliquées avant l’abattage des animaux influencent directement la qualité de la viande en modulant l’état physiologique des porcs; ainsi, l’augmentation de la température corporelle, les taux élevés de lactate sanguin et l’épuisement des réserves de glycogène entre autres, occasionnent la majorité des baisses de qualité. L’objectif de cette thèse était de valider des outils indicateurs de stress porcin pour les fermes et les abattoirs. Ceux-ci seraient appliqués à la surveillance du bien-être animal et à la prédiction de variation de qualité de la viande porcine au niveau commercial. Premierement, les résultats de la thèse ont permis de conclure qu’un des outils développés (analyseur portatif de lactate) mesure la variation du niveau de lactate sanguin associé à l’état physiologique des porcs dans la phase péri-mortem et aide à expliquer la variation de la qualité de la viande chez le porc à l’abattoir, en particulier dans les muscles du jambon. Deuxièmement, les résultats des audits du bien-être animal appliqués de la ferme à l’abattoir ont démontré que la qualité du système d’élevage à la ferme d’origine et les compétences du chauffeur de camion sont d’importants critères affectant la réponse comportementale des porcs à la manipulation avant l’abattage. Ces résultats ont également démontré que les conditions de logement à la ferme (la faible densité et l’enrichissement dans les enclos), le comportement des porcs en période pré-abattage (glissade), ainsi que les interventions du manipulateur (utilisation du bâton électrique) dans la zone d’étourdissement de l’abattoir affectent négativement la variation de la qualité de la viande. L’application des protocoles d’audits dans la filière porcine a également démontré que le respect des critères de bien-être animal fixés par un outil de vérification est primordiale et permet de contrôler les conditions de bien-être des porcs à chaque étape de la période pré-abattage, de produire une viande de qualité supérieure et de réduire les pertes. Les audits de bien-être animal sont donc un outil qui apporte des resultats très pertinents pour aider a éviter les variations de la qualité de la viande chez le porc. Troisièmement, la thermographie infrarouge s’est avéré être une technique prometteuse permettant d’évaluer la variation de température corporelle de l’animal pendant et après un stress physique, en particulier lorsque cette mesure est prise derrière les oreilles. En conclusion, les outils validés à travers cette thèse représentent des méthodologies non invasives et potentiellement complémentaires à d’autres approches d’évaluation de l’état physiologique et du bien-être animal par rapport au stress, permettant de réduire les pertes de qualité de viande (par exemple en utilisation conjointe avec le niveau de lactate sanguin et les indicateurs de stress comportemental, entre autres).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, les écoles sont situées dans une région où l’aléa sismique est considéré modéré à élevé. La majorité de ces écoles ont été construites avant les années 70 et comportent de la maçonnerie non armée (MNA) qui est un matériau à ductilité faible. Au cours des séismes passés notamment celui du Saguenay en 1988, il semble que les structures comportant de la MNA constituent le type de structure le plus dangereux vis-à-vis du séisme. La performance sismique de ces écoles est alors mise en question d’autant plus que la plupart ont été construites avant l’introduction des normes parasismiques. Ce projet de recherche traite de la vulnérabilité sismique des écoles comportant de la MNA et s’inscrit à la suite d’un projet d’élaboration d’une procédure de classification des écoles dans l’Est du Canada. Il découle d’une initiative du Réseau Canadien pour la Recherche Parasismique (RCRP) qui vise des procédures d’analyse de ces bâtiments en vue d’un programme de réhabilitation d’écoles, lancé par le Ministère de l’Éducation, des Loisirs et du Sport (MELS). Une procédure à trois niveaux pour l’évaluation de la vulnérabilité sismique des bâtiments dans l’Est du Canada a été élaborée par différents chercheurs de l’Université de Sherbrooke, de l’École de Technologie Supérieure et de l’Université McGill [Nollet et al., 2012]. Partant des conclusions de cette étude et d’une revue de littérature, les efforts de la recherche développeront un niveau d’évaluation sismique complète des écoles types au Québec comportant de la MNA comme murs de remplissage. Les objectifs seront donc de proposer un modèle adéquat du comportement sismique de la MNA issue de la littérature, étudier l’influence de la non linéarité de la MNA sur la réponse dynamique de ces écoles ainsi que l’influence de l’irrégularité en plan sur la réponse dynamique de ces écoles. La démarche comprend le développement des modèles Opensees [Mazzoni et al., 2004] et la modélisation des écoles génériques sur le logiciel OpenSees (l’un des défi majeur du projet), la validation des modèles à partir de valeurs empirique et expérimentale et enfin les analyses modales et temporelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour ce projet, nous avons développé une plateforme pour l’analyse pangénomique de la méthylation de l’ADN chez le bovin qui est compatible avec des échantillons de petites tailles. Cet outil est utilisé pour étudier les caractéristiques génétiques et épigénétiques (méthylation de l’ADN) des gamètes soumis aux procédures de procréation médicalement assisitée et des embryons précoces. Dans un premier temps, une plateforme d’analyse de biopuces spécifiques pour l’étude de la méthylation de l’ADN chez l’espèce bovine a été développée. Cette plateforme a ensuite été optimisée pour produire des analyses pangénomiques de méthylation de l’ADN fiables et reproductibles à partir d’échantillons de très petites tailles telle que les embryons précoces (≥ 10 ng d’ADN a été utilisé, ce qui correspond à 10 blastocystes en expansion). En outre, cet outil a permis d’évaluer de façon simultanée la méthylation de l’ADN et le transcriptome dans le même échantillon, fournissant ainsi une image complète des profils génétiques et épigénétiques (méthylation de l’ADN). Comme preuve de concept, les profils comparatifs de méthylation de l’ADN spermatique et de blastocystes bovins ont été analysés au niveau de l’ensemble du génome. Dans un deuxième temps, grâce à cette plateforme, les profils globaux de méthylation de l’ADN de taureaux jumeaux monozygotes (MZ) ont été analysés. Malgré qu’ils sont génétiquement identiques, les taureaux jumeaux MZ ont des descendants avec des performances différentes. Par conséquent, l’hypothèse que le profil de méthylation de l’ADN spermatique de taureaux jumeaux MZ est différent a été émise. Dans notre étude, des différences significatives entre les jumeaux MZ au niveau des caractéristiques de la semence ainsi que de la méthylation de l’ADN ont été trouvées, chacune pouvant contribuer à l’obtention de performances divergentes incongrues des filles engendrées par ces jumeaux MZ. Dans la troisième partie de ce projet, la même plateforme a été utilisée pour découvrir les impacts d’une supplémentation à forte concentration en donneur de méthyle universel sur les embryons précoces bovins. La supplémentation avec de grandes quantités d’acide folique (AF) a été largement utilisée et recommandée chez les femmes enceintes pour sa capacité bien établie à prévenir les malformations du tube neural chez les enfants. Cependant, plus récemment, plusieurs études ont rapporté des effets indésirables de l’AF utilisé à des concentrations élevées, non seulement sur le développement de l’embryon, mais aussi chez les adultes. Au niveau cellulaire, l’AF entre dans le métabolisme monocarboné, la seule voie de production de S-adénosyl méthionine (SAM), un donneur universel de groupements méthyles pour une grande variété de biomolécules, y compris l’ADN. Par conséquent, pour résoudre cette controverse, une forte dose de SAM a été utilisée pour traiter des embryons produits in vitro chez le bovin. Ceci a non seulement permis d’influencer le phénotype des embryons précoces, mais aussi d’avoir un impact sur le transcriptome et le méthylome de l’ADN. En somme, le projet en cours a permis le développement d’une plateforme d’analyse de la méthylation de l’ADN à l’échelle du génome entier chez le bovin à coût raisonnable et facile à utiliser qui est compatible avec les embryons précoces. De plus, puisque c’est l’une des premières études de ce genre en biologie de la reproduction bovine, ce projet avait trois objectifs qui a donné plusieurs nouveaux résultats, incluant les profils comparatifs de méthylation de l’ADN au niveau : i) blastocystes versus spermatozoïdes ; ii) semence de taureaux jumeaux MZ et iii) embryons précoces traités à de fortes doses de SAM versus des embryons précoces non traités.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : Since at least the 1980's, a growing number of companies have set up an ethics or a compliance program within their organization. However, in the field of study of business management, there is a paucity of research studies concerning these management systems. This observation warranted the present investigation of one company's compliance program. Compliance programs are set up so that individuals working within an organization observe the laws and regulations which pertain to their work. This study used a constructivist grounded theory methodology to examine the process by which a specific compliance program, that of Siemens Canada Limited, was implemented throughout its organization. In conformity with this methodology, instead of proceeding with the investigation in accordance to a particular theoretical framework, the study established a number of theoretical constructs used strictly as reference points. The study's research question was stated as: what are the characteristics of the process by which Siemens' compliance program integrated itself into the existing organizational structure and gained employee acceptance? Data consisted of documents produced by the company and of interviews done with twenty-four managers working for Siemens Canada Limited. The researcher used QSR-Nvivo computer assisted software to code transcripts and to help with analyzing interviews and documents. Triangulation was done by using a number of analysis techniques and by constantly comparing findings with extant theory. A descriptive model of the implementation process grounded in the experience of participants and in the contents of the documents emerged from the data. The process was called "Remolding"; remolding being the core category having emerged. This main process consisted of two sub-processes identified as "embedding" and "appraising." The investigation was able to provide a detailed account of the appraising process. It identified that employees appraised the compliance program according to three facets: the impact of the program on the employee's daily activities, the relationship employees have with the local compliance organization, and the relationship employees have with the corporate ethics identity. The study suggests that a company who is entertaining the idea of implementing a compliance program should consider all three facets. In particular, it suggests that any company interested in designing and implementing a compliance program should pay particular attention to its corporate ethics identity. This is because employee's acceptance of the program is influenced by their comparison of the company's ethics identity to their local ethics identity. Implications of the study suggest that personnel responsible for the development and organizational support of a compliance program should understand the appraisal process by which employees build their relationship with the program. The originality of this study is that it points emphatically that companies must pay special attention in developing a corporate ethics identify which is coherent, well documented and well explained.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Problématique : Le trouble de la personnalité limite (TPL) est une condition psychiatrique touchant environ 1 % de la population et 20 % de la clientèle recevant des services en psychiatrie (Gunderson et Links, 2008). L’un des domaines du fonctionnement dans la vie quotidienne le plus touché chez cette population est le travail (Gunderson et al., 2011; Larivière et al., 2010; Zanarini et al., 2012). À notre connaissance, aucune étude n’a décrit de façon approfondie la participation au travail des personnes présentant un TPL. Objectif : L’objectif général de cette étude vise à identifier et à décrire les obstacles, les facilitateurs de même que les solutions possibles de la participation au travail des personnes présentant un TPL selon leur point de vue et celui de leurs intervenants. Méthodologie : Une étude de cas multiples a été utilisée (Yin, 2009). Neuf cas ont été étudiés selon trois contextes socioprofessionnels de la participation au travail : A. Réintégration (personne en invalidité), B. Retour (personne en absence maladie) et C. Maintien au travail. Pour chacun des contextes, trois dyades incluant une personne avec un TPL (âgée de 18 à 55 ans) et son intervenant soutenant la participation au travail ont été interviewées. Résultats: Les résultats qualitatifs (n = 18) ont démontré que la participation au travail des personnes présentant un TPL est influencée par des facteurs individuels (p. ex., la réaction face à la pression et aux relations de travail, la régulation émotionnelle) ainsi que des facteurs liés aux acteurs et procédures des systèmes de l’assurance, organisationnel et de la santé (p. ex., la collaboration et la communication entre les acteurs, l’alliance de travail entre les acteurs et la personne présentant un TPL, les mesures d’accommodement et de soutien naturel dans le milieu de travail). Conclusions et implication clinique : Cette étude met en lumière le défi important et spécifique que représente la participation au travail pour les personnes présentant un TPL. Elle implique des facteurs personnels et environnementaux qui doivent être considérés par tous les acteurs impliqués (les utilisateurs de services, les professionnels de la santé, les assureurs et les employeurs). Les programmes de réadaptation au travail actuels devraient être bonifiés et coordonnés adéquatement avec les thérapies spécialisées afin d’aborder de manière optimale les enjeux liés à la participation au travail des personnes présentant un TPL.