732 resultados para changement de paradigme
Resumo:
En partant de quelques difficultés observées autour des aspects de la conceptualisation technoscientifique et de l’intégration de la de la théorie et la pratique dans l’apprentissage de la physiologie animale chez les étudiants du programme de Zootechnie de l’Université Nationale de Colombie, siège Medellín, cette recherche propose une stratégie didactique s’appuyant sur la méthode de l’Apprentissage Basé sur les Problèmes (ABP), appliquée spécifiquement aux sujets de thermorégulation et stress physiologique des animaux domestiques. Dans cette étude de cas on a travaillé avec un échantillon de huit étudiants à qui on a présenté dès la première session un problème didactique pour être résolu à travers le cours. Afin d’évaluer le processus on a réalisé trois enquêtes nommées Épreuves de Niveau de Formulation (NF) réalisées à différents moments de l’essai : l’une avant de commencer avec le sujet (NF 1), l’autre après la troisième classe théorique donnée et avant de faire la pratique sur le terrain (NF 2), et l’autre à la fin du processus (NF 3). Finalement on a réalisé des entretiens individuels avec chaque étudiant afin de connaître sa perception concernant la méthode. L’information obtenue a été soumise à une analyse qualitative et par des correspondances, par le biais du programme QDA Miner à travers de la révision et codification des textes provenants des enquêtes et de l’entretien individuel, complétés à leur tour par des observations sur le terrain, en analysant le changement conceptuel, la relation théorie-pratique et les correspondances entre les variables et les catégories établies. Parmi les principaux résultats obtenus on souligne le fait qu’après avoir appliqué l’ABP dans ce cours de Physiologie Animale le changement conceptuel a été favorisé et le problème formulé a servi comme connecteur entre la théorie et la pratique. En outre, on a observé la fusion des connaissances préalables avec les nouveaux acquis, l’apprentissage significatif, l’amélioration du niveau de formulation et l’augmentation de la scientificité des définitions; également il a mené à la solution viii de problèmes et à surmonter les obstacles épistémologiques comme la pluridisciplinarité et la non-linéarité. Il reste comme recommandation celle d’évaluer cette méthode dans d’autres sujets de la Physiologie Animale, dans d’autres sciences, dans des échantillons d’une taille majeure, ainsi comme approcher le sujet de l’évaluation appliquée directement à cette méthode.
Resumo:
Les transitions de spin provoquent des changements de propriétés physiques des complexes de métaux du bloc d les subissant, notamment de leur structure et propriétés spectroscopiques. Ce mémoire porte sur la spectroscopie Raman de composés du fer(II) et du fer(III), pour lesquels on induit une transition de spin par variation de la température ou de la pression. Trois complexes de fer(II) de type FeN4(NCS)2 avec des comportements de transition de spin différents ont été étudiés : Fe(Phen)2(NCS)2 (Phen : 1,10-Phénanthroline), Fe(Btz)2(NCS)2 (Btz : 2,2’-bi-4,5-dihydrothiazine) et Fe(pyridine)4(NCS)2. Un décalage de l’ordre de 50 cm-1 est observable pour la fréquence d’étirement C-N du ligand thiocyanate des complexes FeN4(NCS)2, lors de la transition de spin induite par variation de la température ou de la pression. Il est possible d’utiliser cette variation de fréquence afin de tracer un profil de transition. Quatre complexes isomères de type FeL222(CN)2 (L222 : 2,13- diméthyl-6,9-dioxa-3,12,18-triazabicyclo[12.3.1]-octadéca-1(18),2,12,14,16-pentaène) ont également été étudiés. Un taux de décalage de l’ordre d’environ 0,03 cm-1/K est observé pour plusieurs bandes du complexe FeL222(CN)2. La bande à 1415 cm-1 disparaît à plus haute température au profit d’une bande à 1400 cm-1. Pour le complexe de chiralité R,R’, les bandes à 1008 cm-1 et 1140 cm-1 se déplacent vers des fréquences plus élevées à partir de 223 K. Les transitions de spin sont observées dans certains complexes de fer(III). Dans cette famille de composés, le complexe Fe(EtDTC)3 (EtDTC : N,N-diéthyldithiocarbamate) a été étudié . Aucun changement n’a été observé dans l’intensité des bandes d’étirement fer-soufre sur les spectres à température variable. Cependant, la bande Fe-S associée à la forme bas-spin à 530 cm-1 augmente en intensité au profit de la bande associée à la forme haut-spin à 350 cm-1 lors des mesures à haute pression, passant d’un rapport d’amplitude de 50% à pression ambiante à 80% à 21 kbar. Un dédoublement de la bande d’étirement C-N du ligand dithiocarbamate à 1495 cm-1 est également observé à des pressions supérieures à 5 kbar. Une comparaison des changements des fréquences de vibration de tous les complexes est effectuée.
Resumo:
Cette étude empirique que nous avons appliquée à l’ingénierie-conseil, vise principalement deux objectifs ; (1) la validation des relations entre certaines caractéristiques des clients des services de ressources humaines et leur niveau de satisfaction face à ces services et (2) l’étude des relations entre les compétences des professionnels RH et le niveau de satisfaction des clients. Nous avons retenu un cadre théorique qui est constitué principalement de l’approche des constituantes multiples. Notre modèle d’analyse suppose que la satisfaction des groupes-clients d’un SRH est influencée par onze facteurs. De ces facteurs, cinq reflètent les caractéristiques des clients ; 1-l’engagement, 2-le sexe, 3-l’âge, 4-l’ancienneté et 5-la fréquence des contacts. Les six autres facteurs représentent les compétences des professionnels en ressources humaines ; 1-expert en ressources humaines, 2-allié de l’organisation, 3-gestion de la culture et du changement, 4-architecte stratégique, 5-gestion de talent et 6-activiste crédible. Pour les fins de notre recherche, nous retenons une approche quantitative et qualitative. Les résultats des analyses bivariées ne confirment pas nos hypothèses. Par contre, l’ancienneté et l’âge des clients semblent avoir une relation négative avec la satisfaction des clients. Quant à l’analyse de contenu des entrevues effectuées auprès des professionnels ressources humaines d’une organisation, elle permet de faire ressortir les liens entre la satisfaction et cinq compétences. Celles-ci sont l’expert en ressources humaines, l’allié de l’organisation, la gestion de la culture et du changement, la gestion du talent et l’activiste crédible. Ainsi, cinq propositions sont supportées.
Resumo:
La vidéosurveillance a pour objectif principal de protéger les personnes et les biens en détectant tout comportement anormal. Ceci ne serait possible sans la détection de mouvement dans l’image. Ce processus complexe se base le plus souvent sur une opération de soustraction de l’arrière-plan statique d’une scène sur l’image. Mais il se trouve qu’en vidéosurveillance, des caméras sont souvent en mouvement, engendrant ainsi, un changement significatif de l’arrière-plan; la soustraction de l’arrière-plan devient alors problématique. Nous proposons dans ce travail, une méthode de détection de mouvement et particulièrement de chutes qui s’affranchit de la soustraction de l’arrière-plan et exploite la rotation de la caméra dans la détection du mouvement en utilisant le calcul homographique. Nos résultats sur des données synthétiques et réelles démontrent la faisabilité de cette approche.
Resumo:
La reconnaissance du pluralisme du système de santé, et donc des interdépendances unissant l’État aux acteurs participant à l’offre des services de santé, pose non seulement la question de la capacité de l’État à gouverner selon ses objectifs, mais aussi celle de la forme des interventions entreprises à cette fin. Cette thèse vise à comprendre comment se développe la participation de l’État à la gouverne d’un secteur de services de santé, et plus particulièrement comment ses interactions avec les acteurs impliqués dans l’offre des services affectent, au fil du temps, les possibilités d’actions étatiques sous-jacentes à la sélection d’instruments de gouverne spécifiques. Elle propose pour ce faire un modèle théorique qui s’inspire de la littérature traitant des instruments de gouverne ainsi que de la théorie de la pratique (Bourdieu). La participation de l’État à la gouverne y est conçue comme le résultat d’un processus historique évolutif, marqué alternativement par des périodes de stabilité et de changement en regard des instruments mobilisés, qui se succèdent selon l’articulation des interactions et des contextes affectant les possibilités d’action que les acteurs perçoivent avoir. Ce modèle a été appliqué dans le cadre d’une étude de cas portant sur le secteur génétique québécois (1969-2010). Cette étude a impliqué l’analyse processuelle et interprétative de données provenant de sources documentaires et d’entrevues réalisées auprès de représentants du ministère de la Santé et des Services sociaux ainsi que de médecins et chercheurs œuvrant dans le secteur de la génétique. Ces analyses font émerger quatre périodes de stabilité en regard des instruments de gouverne mobilisés, entrecoupées de périodes de transition au cours desquelles le Ministère opère une hybridation entre les instruments jusque là employés et les nouvelles modalités d’intervention envisagées. Ces résultats révèlent également que l’efficacité de ces instruments - c’est-à-dire la convergence entre les résultats attendus et produits par ceux-ci - perçue par le Ministère constitue un facteur de première importance au regard de la stabilisation et du changement des modalités de sa participation à la gouverne de ce secteur. En effet, lorsque les instruments mobilisés conduisent les médecins et chercheurs composant le secteur de la génétique à agir et interagir de manière à répondre aux attentes du Ministère, les interventions ministérielles tendent à se stabiliser autour de certains patterns de gouverne. À l’inverse, le Ministère tend à modifier ses modes d’intervention lorsque ses interactions avec ces médecins et chercheurs le conduisent à remettre en cause l’efficacité de ces patterns. On note cependant que ces changements sont étroitement liés à une évolution particulière du contexte, amenant une modification des possibilités d’action dont disposent les acteurs. Ces résultats révèlent enfin certaines conditions permettant au Ministère de rencontrer ses objectifs concernant la gouverne du secteur de la génétique. Les instruments qui impliquent fortement les médecins et chercheurs et qui s’appuient sur des expertises qu’ils considèrent légitimes semblent plus susceptibles d’amener ces derniers à agir dans le sens des objectifs ministériels. L’utilisation de tels instruments suppose néanmoins que le Ministère reconnaisse sa propre dépendance vis-à-vis de ces médecins et chercheurs.
Resumo:
Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.
Resumo:
Dans de nombreux comportements qui reposent sur le rappel et la production de séquences, des groupements temporels émergent spontanément, créés par des délais ou des allongements. Ce « chunking » a été observé tant chez les humains que chez certains animaux et plusieurs auteurs l’attribuent à un processus général de chunking perceptif qui est conforme à la capacité de la mémoire à court terme. Cependant, aucune étude n’a établi comment ce chunking perceptif s’applique à la parole. Nous présentons une recension de la littérature qui fait ressortir certains problèmes critiques qui ont nui à la recherche sur cette question. C’est en revoyant ces problèmes qu’on propose une démonstration spécifique du chunking perceptif de la parole et de l’effet de ce processus sur la mémoire immédiate (ou mémoire de travail). Ces deux thèmes de notre thèse sont présentés séparément dans deux articles. Article 1 : The perceptual chunking of speech: a demonstration using ERPs Afin d’observer le chunking de la parole en temps réel, nous avons utilisé un paradigme de potentiels évoqués (PÉ) propice à susciter la Closure Positive Shift (CPS), une composante associée, entre autres, au traitement de marques de groupes prosodiques. Nos stimuli consistaient en des énoncés et des séries de syllabes sans sens comprenant des groupes intonatifs et des marques de groupements temporels qui pouvaient concorder, ou non, avec les marques de groupes intonatifs. Les analyses démontrent que la CPS est suscitée spécifiquement par les allongements marquant la fin des groupes temporels, indépendamment des autres variables. Notons que ces marques d’allongement, qui apparaissent universellement dans la langue parlée, créent le même type de chunking que celui qui émerge lors de l’apprentissage de séquences par des humains et des animaux. Nos résultats appuient donc l’idée que l’auditeur chunk la parole en groupes temporels et que ce chunking perceptif opère de façon similaire avec des comportements verbaux et non verbaux. Par ailleurs, les observations de l’Article 1 remettent en question des études où on associe la CPS au traitement de syntagmes intonatifs sans considérer les effets de marques temporels. Article 2 : Perceptual chunking and its effect on memory in speech processing:ERP and behavioral evidence Nous avons aussi observé comment le chunking perceptif d’énoncés en groupes temporels de différentes tailles influence la mémoire immédiate d’éléments entendus. Afin d’observer ces effets, nous avons utilisé des mesures comportementales et des PÉ, dont la composante N400 qui permettait d’évaluer la qualité de la trace mnésique d’éléments cibles étendus dans des groupes temporels. La modulation de l’amplitude relative de la N400 montre que les cibles présentées dans des groupes de 3 syllabes ont bénéficié d’une meilleure mise en mémoire immédiate que celles présentées dans des groupes plus longs. D’autres mesures comportementales et une analyse de la composante P300 ont aussi permis d’isoler l’effet de la position du groupe temporel (dans l’énoncé) sur les processus de mise en mémoire. Les études ci-dessus sont les premières à démontrer le chunking perceptif de la parole en temps réel et ses effets sur la mémoire immédiate d’éléments entendus. Dans l’ensemble, nos résultats suggèrent qu’un processus général de chunking perceptif favorise la mise en mémoire d’information séquentielle et une interprétation de la parole « chunk par chunk ».
Resumo:
D'après des études récentes, le lien qui unit les propriétés objectives de la peine (c.-à-d. la sévérité, la certitude et la célérité de la peine) et les propriétés telles que perçues par les délinquants potentiels serait faible, voire inexistant. Par conséquent, les politiques publiques s'appuyant sur le paradigme dissuasif seraient inefficaces pour réduire la criminalité. Toutefois, ces études s'appuient sur un modèle conceptuel limité qui sous-entend que la peine produirait uniquement de la dissuasion. Cette étude vise donc à tester un modèle élargi de prévention générale qui intègre à la fois les notions de dissuasion et de validation normative. D'après ce modèle, l'effet préventif de la peine pourrait s'effectuer à travers les valeurs et les croyances des délinquants potentiels, et ce sans nécessairement modifier leurs perceptions de la peine. Afin de vérifier l'utilité d'un tel modèle, des données ont été colligées à l'aide d'un sondage sur les habitudes de conduite de 448 jeunes conducteurs québécois. Les résultats indiquent que les mécanismes dissuasifs, tels que la certitude perçue d'arrestation et la sévérité perçue des peines, n'ont pas d'effet significatif sur l'intention délictuelle des automobilistes. Toutefois, les valeurs et les croyances de l'automobiliste jouent un rôle essentiel dans la décision d'adopter un comportement routier respectueux des lois. Les automobilistes percevant les problématiques de sécurité routière (c.-à-d. alcool au volant ou vitesse) comme graves auraient moins d'intentions délinquantes. Ces valeurs et ces croyances seraient modulées à la fois par les expériences d'impunité et par le niveau d'exposition aux différentes activités policières sur les routes. Ces résultats suggèrent que l'application des lois peut produire un effet préventif sans nécessairement que des mécanismes dissuasifs en soient responsables.
Resumo:
Le CD40 est un membre de la famille des récepteurs du facteur de nécrose tumorale ("Tumour necrosis factor", TNF), initialement identifié sur des cellules de carcinome de la vessie. L'interaction du CD40 avec son ligand (CD40L) est d'une importance cruciale pour le développement des cellules B et de la commutation d'isotype au cours de la réponse immunitaire acquise. L'expression du complexe CD40/CD40L était initialement cru d'être limiter aux cellules du système immunitaire, mais aujourd'hui il est bien connu que ce complexe est également exprimé sur les cellules du système circulatoire et vasculaire, et est impliqué dans diverses réactions inflammatoires; de sorte que le CD40L est maintenant considéré comme une molécule thrombo-inflammatoire prédictive des événements cardiovasculaires. Les plaquettes expriment constitutivement le CD40, alors que le CD40L n'est exprimé que suite à leur l'activation. Il est ensuite clivé en sa forme soluble (sCD40L) qui représente la majorité du sCD40L en circulation. Il fut démontré que le sCD40L influence l'activation plaquettaire mais son effet exact sur la fonction plaquettaire, ainsi que les mécanismes cellulaires et moléculaires sous-jacents à son action demeurent inconnus. Ainsi, ce projet a été entrepris dans le but d’adresser les objectifs spécifiques suivants: 1) évaluer les effets in vitro du sCD40L sur l'activation et l'agrégation plaquettaire; 2) identifier les récepteurs plaquettaires impliqués dans l’action du sCD40L; 3) élucider les voies signalétiques intracellulaires induits par le sCD40L; 4) évaluer les effets du sCD40L sur la formation de thrombus in vivo. Nous avons trouvé que le sCD40L augmente fortement l'activation et l'agrégation des plaquettes en réponse à de faibles concentrations d'agonistes. Les plaquettes humaines traitées avec une forme mutante du sCD40L qui n'interagit pas avec le CD40, et les plaquettes de souris déficientes en CD40 ne furent pas en mesure d'induire de telles réponses, indiquant que le récepteur principal du sCD40L au niveau des plaquettes est le CD40. En plus, nous avons identifié la présence de plusieurs membres de la famille du facteur associé du récepteur du TNF ("TNF receptor-associated factor", TRAF) dans les plaquettes et nous avons montré que seulement le TRAF2 s'associe avec le CD40 suite à la stimulation par le sCD40L. Nos résultats indiquent aussi que le sCD40L agisse sur les plaquettes au repos par l'entremise de deux voies signalétiques distinctes. La première voie implique l'activation de la petite GTPase Rac1 et de sa cible en aval, soit la protéine kinase p38 activée par le mitogène ("p38 mitogen-activated protein kinase", p38 MAPK ), menant au changement de forme plaquettaire et à la polymérisation de l'actine; alors que la deuxième voie implique l'activation de la cascade signalétique du NF-kB. Par ailleurs, à la suite d'une lésion artérielle induite par le chlorure de fer, le sCD40L exacerbe la formation de thrombus et l'infiltration leucocytaire au sein du thrombus dans les souris du type sauvage, mais pas chez les souris déficientes en CD40. En conclusion, ce projet a permis d'identifier pour la première fois deux voies signalétiques distinctes en aval du CD40 plaquettaire et a permis d'établir leur implication dans l'activation et l'agrégation plaquettaire en réponse au sCD40L. De manière plus importante, ce projet nous a permis d'établir un lien direct entre les niveaux élevés du sCD40L circulant et la formation de thrombus in vivo, tout en soulignant l'importance du CD40 dans ce processus. Par conséquent, l'axe CD40/CD40L joue un rôle important dans l'activation des plaquettes, les prédisposant à une thrombose accrue en réponse à une lésion vasculaire. Ces résultats peuvent expliquer en partie la corrélation entre les taux circulants élevés du sCD40L et l'incidence des maladies cardiovasculaires.
Resumo:
Cette thèse est principalement constituée de trois articles traitant des processus markoviens additifs, des processus de Lévy et d'applications en finance et en assurance. Le premier chapitre est une introduction aux processus markoviens additifs (PMA), et une présentation du problème de ruine et de notions fondamentales des mathématiques financières. Le deuxième chapitre est essentiellement l'article "Lévy Systems and the Time Value of Ruin for Markov Additive Processes" écrit en collaboration avec Manuel Morales et publié dans la revue European Actuarial Journal. Cet article étudie le problème de ruine pour un processus de risque markovien additif. Une identification de systèmes de Lévy est obtenue et utilisée pour donner une expression de l'espérance de la fonction de pénalité actualisée lorsque le PMA est un processus de Lévy avec changement de régimes. Celle-ci est une généralisation des résultats existant dans la littérature pour les processus de risque de Lévy et les processus de risque markoviens additifs avec sauts "phase-type". Le troisième chapitre contient l'article "On a Generalization of the Expected Discounted Penalty Function to Include Deficits at and Beyond Ruin" qui est soumis pour publication. Cet article présente une extension de l'espérance de la fonction de pénalité actualisée pour un processus subordinateur de risque perturbé par un mouvement brownien. Cette extension contient une série de fonctions escomptée éspérée des minima successives dus aux sauts du processus de risque après la ruine. Celle-ci a des applications importantes en gestion de risque et est utilisée pour déterminer la valeur espérée du capital d'injection actualisé. Finallement, le quatrième chapitre contient l'article "The Minimal entropy martingale measure (MEMM) for a Markov-modulated exponential Lévy model" écrit en collaboration avec Romuald Hervé Momeya et publié dans la revue Asia-Pacific Financial Market. Cet article présente de nouveaux résultats en lien avec le problème de l'incomplétude dans un marché financier où le processus de prix de l'actif risqué est décrit par un modèle exponentiel markovien additif. Ces résultats consistent à charactériser la mesure martingale satisfaisant le critère de l'entropie. Cette mesure est utilisée pour calculer le prix d'une option, ainsi que des portefeuilles de couverture dans un modèle exponentiel de Lévy avec changement de régimes.
Resumo:
L’importance accordée à la reconnaissance des droits fondamentaux des personnes en matière d’intégrité physique et de consentement aux soins dans notre société fait que le travailleur social appelé à participer à l’ouverture de régimes de protection du majeur doit développer une expertise multidimensionnelle. De plus, le travailleur social se retrouve à confronté à différentes logiques d’action (juridique et procédurale, médicale, psychosociale, pragmatique) dont il doit tenir compte dans le processus d’évaluation. Ceci nous amène à aborder la position difficile dans laquelle se trouve généralement le travailleur social qui oscille entre la possibilité de favoriser l’autonomie de la personne et la volonté de protéger celle-ci. L’objectif de ce mémoire est donc d’accroître notre compréhension du processus de prise de décision du travailleur social dans la détermination de l’inaptitude d’une personne âgée, dans le cadre des régimes de protection du majeur. D’une manière plus spécifique, cette étude consiste à retracer et à théoriser, par l’analyse de sa logique d’action, le processus à travers lequel le travailleur social se positionne lorsqu’il se retrouve confronté à des dilemmes éthiques par rapport à la détermination de l’inaptitude d’une personne âgée. L’analyse de l’expérience du travailleur social a été réalisée à travers le paradigme de l’individualisme méthodologique tel que définit par Raymond Boudon. Les données furent recueillies lors d’entrevues semi-dirigées réalisées auprès de sept intervenants. Les témoignages recueillis par le biais de cette recherche exploratoire montrent à quel point il peut être difficile et éprouvant pour le travailleur social de devoir se positionner dans la détermination de l’inaptitude d’une personne âgée, dans le cadre des régimes de protection du majeur et comment ces interventions s’inscrivent dans un jeu infiniment complexe d’interactions multiples entre acteurs et actants. Les principaux obstacles à la prise de décision éthique dont ont fait part les travailleurs sociaux interrogés sont liés au contexte de pratique. Il s’agit du manque de ressources financières et humaines disponibles ainsi que le fait que les décisions ne soient pas toujours prises en équipe interdisciplinaire et dans un climat qui soit non menaçant. La reconnaissance de l’expertise des travailleurs sociaux en matière d’ouverture de régimes protection est d’ailleurs ressortie comme un enjeu important.
Resumo:
Le présent mémoire de maîtrise porte sur la médiation préventive en relations du travail. La question de recherche est la suivante : « Pourquoi et comment la médiation préventive du ministère du Travail améliore-t-elle les relations du travail dans les entreprises québécoises? ». La médiation préventive est un mode d’intervention administratif et un mécanisme de soutien additionnel à la législation québécoise offert volontairement depuis plusieurs années par le ministère du Travail aux parties patronale et syndicale qui en font la demande. La médiation préventive se réalise avec le soutien d’un médiateur ou d’une médiatrice du ministère hors de la période de la négociation collective. Son contenu appartient aux parties et les ententes s’effectuent par consensus. La médiation préventive se présente de quatre manières : diagnostic des relations du travail par consensus, diagnostic des relations du travail par entrevue, séminaire en relations du travail et comité de relations du travail. Le modèle conceptuel comporte une variable dépendante qui est les relations du travail, une variable indépendante correspondant à la médiation préventive, le changement organisationnel en tant que variable intermédiaire et une variable de contrôle se rapportant à l’environnement organisationnel. La première des trois hypothèses générales de cette recherche affirme que, toutes choses égales par ailleurs, la médiation préventive amène un changement organisationnel. La seconde hypothèse générale relate que, toutes choses égales par ailleurs, le changement organisationnel contribue à améliorer les relations du travail. La dernière hypothèse générale correspond à l’idée que, toutes choses égales par ailleurs, l’environnement organisationnel a un impact sur les relations du travail. Parmi les douze hypothèses suivantes, quatre hypothèses ont été développées à partir de la première hypothèse générale : 1) toutes choses égales par ailleurs, l’établissement d’un diagnostic des relations du travail par le médiateur va aider à la mise en place d’un plan d’action; 2) toutes choses égales par ailleurs, l'établissement d'un plan d'action par le médiateur contribue au changement organisationnel; 3) toutes choses égales par ailleurs, un suivi par le médiateur contribue au changement organisationnel; 4) toutes choses égales par ailleurs, la perception des deux parties (patronale et syndicale) que le médiateur a bien joué son rôle contribue au changement organisationnel. Les quatre hypothèses suivantes découlent de la seconde hypothèse générale : 1) toutes choses égales par ailleurs, un changement culturel dans l’organisation avec un réaménagement des points de vue de la direction contribue à améliorer les relations du travail; 2) toutes choses égales par ailleurs, un changement relationnel dans l’organisation vers des relations de coopération contribue à améliorer les relations du travail; 3) toutes choses égales par ailleurs, un changement du style de direction dans l’organisation avec l’introduction de valeurs humaines ainsi qu’un « espace de discussion » contribue à améliorer les relations du travail; 4) toutes choses égales par ailleurs, la perception des deux parties (patronale et syndicale) d’avoir bien joué leur rôle contribue à améliorer les relations du travail. Enfin, les quatre dernières hypothèses ont été réalisées à partir de la troisième hypothèse générale : 1) toutes choses égales par ailleurs, l’organisation a un impact sur les relations du travail; 2) toutes choses égales par ailleurs, l’histoire syndicale a un impact sur les relations du travail; 3) toutes choses égales par ailleurs, la perception des contraintes extérieures et des risques pour l’emploi contribue à améliorer les relations du travail; 4) toutes choses égales par ailleurs, la perception d’un équilibre dans les rapports de force entre les parties (patronale et syndicale) contribue à améliorer les relations du travail. La vérification des hypothèses s’est effectuée à l’aide d’entretiens semi-structurés auprès de neuf participants des parties patronale et syndicale d’une entreprise ayant employé une médiation préventive. Une cueillette de données secondaires a aussi eu lieu pour notamment mesurer le niveau de conflit au travail sur dix ans. L’analyse des résultats de cette étude qualitative et longitudinale a permis de confirmer l’ensemble des hypothèses puisque la médiation préventive a amené à un changement organisationnel qui a aidé à améliorer les relations du travail et où l’environnement a eu un impact sur celles-ci. Un modèle d’analyse a été développé et validé pour cette recherche afin de savoir pourquoi et comment la médiation préventive du ministère du Travail améliore les relations du travail dans les entreprises québécoises. La présente recherche démontre de manière empirique que la médiation préventive améliore les relations du travail dans les entreprises québécoises tout en expliquant comment celle-ci procède. De plus, cette recherche suggère à toutes les organisations québécoises syndiquées d’entreprendre une médiation préventive si elles sont aux prises avec de mauvaises relations du travail.
Resumo:
Au Québec, la Loi 113 a été adoptée en 2002 pour réduire l’incidence et les conséquences des événements indésirables survenus en cours de soins de santé. Cette loi oblige à effectuer plusieurs modifications tant au niveau administratif que clinique, notamment, la création de comités de gestion du risque, l’établissement de politiques pour la divulgation aux patients et la déclaration systématique des événements indésirables dans les institutions hospitalières. Cependant, la capacité de ces établissements à implanter les mesures requises par la loi a été mise en doute par certains auteurs. L’objectif de cette thèse a été d’étudier le processus d’implantation de la loi 113 à partir d’un cadre théorique intégrant les approches dites de développement organisationnel, institutionnelle et politique. Pour cela, nous avons mené une étude de cas multiples, chaque cas étant représenté par un type d’hôpital qualifié dans le contexte de notre étude de « petit », « grand » et « universitaire ». Les procédures de cueillette des données ont consisté en des entrevues avec des administrateurs et des professionnels de santé, des séances d’observation de comités de gestion des risques, et une analyse de documents issus des secteurs administratifs de chaque institution. Les résultats suggèrent une implantation progressive et variable de la loi d’un hôpital à l’autre et la présence de conflits entre les pratiques professionnelles ou organisationnelles et les nouvelles normes légales. Ces dernières semblent avoir été adoptées au niveau administratif, tandis que les normes professionnelles et organisationnelles ont continué à prédominer au niveau clinique, une situation ayant entraîné un climat de méfiance entre les milieux administratif et clinique, plus particulièrement parmi les médecins de chaque établissement hospitalier. Les résultats de notre étude indiquent également que les stratégies ayant le plus contribué au changement résultent d’une forte légitimité et du leadership des principaux agents de changement, comme la gouverne et le gestionnaire de risque, et de la gestion avisée de l’environnement organisationnel. Cependant, malgré les efforts continus mobilisés au sein de chaque établissement pour implanter la loi, on a pu constater la persistance d’une résistance de certains acteurs clefs. En conclusion, l’implication et la contribution des détenteurs d’enjeux internes et externes de l’organisation sont nécessaires pour aboutir à une vision commune et aligner les différentes interventions afin d’assurer le succès de l’implantation de la loi.
Resumo:
Cette thèse a comme objectif général d’enrichir la compréhension du phénomène de mise en œuvre des services cliniques intégrés en contexte organisationnel. Elle s’inscrit dans la perspective théorique du sensemaking organisationnel (Weick, 1995). Dans un premier temps, nous avons étudié comment des acteurs ont construit le sens du projet d’intégration qu’ils devaient mettre en œuvre, et les répercussions de cette construction de sens sur des enjeux cliniques et organisationnels. Le contexte étudié est une nouvelle organisation de santé créée afin d’offrir des services surspécialisés à des personnes aux prises avec un trouble concomitant de santé mentale et de dépendance. Une stratégie de recherche de type qualitatif a été utilisée. L’analyse a reposé sur des données longitudinales (8 ans) provenant de trois sources : des entrevues semi-dirigées, des observations et de l’analyse de documents. Deux articles en découlent. Alors que l’article 1 met l’accent sur la transformation des pratiques professionnelles, l’article 2 aborde le phénomène sous l’angle de l’identité organisationnelle. Dans un deuxième temps, nous avons réalisé une analyse critique des écrits. Celle-ci a porté sur les tendances actuelles dans la façon d’étudier la mise en œuvre des services intégrés pour les troubles concomitants. Les résultats obtenus sont présentés dans l’article 3. Quatre grands constats se dégagent de l’ensemble de ce travail. Le premier est que la mise en œuvre de services cliniques intégrés est un phénomène dynamique, mais sous contrainte. Autrement dit, il s’agit d’un phénomène évolutif qui se définit et se redéfinit au gré des événements, mais avec une tendance lourde à maintenir la direction dans laquelle il s’est déployé initialement. L’énaction et l’engagement des professionnels sont apparus des mécanismes explicatifs centraux à cet égard. Le second constat est que la mise en œuvre s’actualise à travers des niveaux d’intégration interdépendants, ce qui signifie que le contexte et l’objet qui est mis en œuvre coévoluent et se transforment mutuellement. Nos résultats ont montré que la notion de "pratiques de couplage" était utile pour capter cette dynamique. Notre troisième constat est que la mise en œuvre demeure profondément ancrée dans le sens que les membres organisationnels construisent collectivement du projet d’intégration à travers leurs actions et interactions quotidiennes. Cette construction de sens permet de comprendre comment le contenu et la forme du projet d’intégration se façonnent au gré des circonstances, tant dans ses aspects cliniques qu’organisationnels. Enfin, le quatrième constat est que ces dynamiques demeurent relativement peu explorées à ce jour dans les écrits sur l’implantation des services intégrés pour les troubles concomitants. Nous faisons l’hypothèse que ce manque de reconnaissance pourrait expliquer une partie des difficultés de mise en œuvre actuelles. Globalement, ces constats permettent d’enrichir considérablement la compréhension du phénomène en révélant les dynamiques qui le constituent et les enjeux qu’il soulève. Aussi, leur prise en compte par les décideurs et les chercheurs a-t-elle le potentiel de faire progresser les pratiques vers une intégration accrue.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.