32 resultados para Théorie des groupoïdes
Resumo:
Dans ce mémoire, nous étudions le comportement grégaire en le décomposant en cinq sources principales suggérées par Sias (2004). En utilisant la définition de Bikhchandani et Sharma (2001), nous nous intéressons particulièrement aux sources dites volontaires de la part des gestionnaires. La présence de problèmes d’agence et les cascades d’information semblent être les deux sources les plus présentes au sein des FCP. C’est l’analyse des structures des réseaux et des caractéristiques des six différents types de gestionnaires qui ont permis d’en arriver à cette conclusion.
Resumo:
L'idée de développer des ateliers destinés aux enseignants sur le sujet des devoirs et des leçons est le résultat de multiples facteurs tant personnels que professionnels qui influencèrent l'orientation de cette recherche. Il en est presque une vérité de La Palice que d'affirmer que les devoirs et leçons sont à l'origine de bien des conflits entre parents et enfants. Dans les hautes sphères intellectuelles, ce sujet de recherche grandement répertorié n'a jamais réussi à faire un consensus. L'intérêt pour le sujet a pris des dimensions importantes dans ma pratique pédagogique lorsque j'ai été initiée à la théorie des Intelligences multiples durant un travail de rédaction pour une maison d'édition. Je fus à même de constater que cette théorie de l'intelligence au pluriel combinée à une approche ludique pouvait devenir un outil innovateur dans la façon de traiter les devoirs et les leçons à la maison. Prendre le temps de s'arrêter sur le sujet des devoirs et leçons a permis une infiltration discrète au coeur d'une problématique qui demeure d'actualité, et ce, depuis plusieurs années. J'ai été à même de constater rapidement que la controverse entourant le sujet des devoirs et leçons impliquait l'ensemble du milieu de l'éducation. Parents, enfants, enseignants, dirigeants et penseurs se retrouvent au coeur de cette tourmente. Il était primordial de cibler l'entité qui rejoignait l'ensemble des différents paliers concernés par le sujet, afin de pouvoir créer un outil de travail pouvant agir le plus largement sur le milieu. Les enseignants, par leur fonction, se situent au carrefour de la problématique découlant des devoirs et des leçons. C'est donc pour eux que j'ai consacré cette recherche.
Resumo:
La connectivité fonctionnelle est reconnue pour altérer la fréquence des rencontres entre les individus et potentiellement affecter les coûts en lien avec la recherche de partenaires sexuels. La structure du paysage peut conséquemment engendrer de la variation dans le succès reproducteur des individus et par le fait même, modifier les opportunités de sélection sexuelle. Le but de cette étude était d’identifier l’influence de la structure du paysage sur les patrons de paternités hors couple (EPP) chez l’Hirondelle bicolore (Tachycineta bicolor), un insectivore aérien en déclin depuis environ 30 ans au Québec. Plus précisément, il était question d’évaluer l’importance relative de la disponibilité spatiotemporelle des partenaires potentiels, de la perméabilité de l’environnement aux mouvements, des caractéristiques individuelles, et des interactions entre certaines de ces variables sur la probabilité qu’un mâle fertilise une femelle, sur le nombre de mâles hors couple ayant fertilisé une femelle et enfin, sur le nombre de jeunes hors couple produits par une femelle. Pour se faire, une approche spatialement explicite basée sur la théorie des circuits a été employée. La collecte de données s’est faite sur 8 saisons de reproduction au sein d’un réseau de 40 fermes (10 nichoirs/ferme) situé le long d’un gradient d’intensification agricole de manière à ce que les individus se retrouvent dans des conditions socioécologiques contrastées. Selon les résultats obtenus, la densité de partenaires potentiels non locaux (i.e. hors ferme, mais au sein d’un rayon de 15 km) a eu un effet négatif sur la probabilité que deux individus produisent des jeunes hors couple, probablement à cause de l’effet de dilution entre compétiteurs. Cette même variable a également induit une augmentation du nombre de pères hors couple non locaux et de leurs jeunes dans une couvée donnée, mais seulement lorsque la résistance aux déplacements était faible. La densité locale a pour sa part eu l’effet inverse, ce qui laisse penser que les femelles auraient tendance à se contenter de leurs voisins immédiats quand les coûts de recherche dans le paysage sont trop élevés en comparaison à ce qui est disponible à proximité. Quant aux caractéristiques individuelles, leurs effets semblent négligeables à l’exception faite de la charge parasitaire moyenne des mâles locaux, laquelle pousserait les femelles à chercher des mâles en dehors de la ferme lorsqu’elle est élevée. Ce facteur ne représente toutefois pas seulement un indice potentiel de la qualité des jeunes produits par ces mâles, mais aussi un risque direct de transmission de parasites lors de copulations hors couple. Somme toute, il semble que les patrons de EPP soient davantage affectés par les variables du paysage que par la morphologie et la condition physique des individus. Ces découvertes sont d’un intérêt particulier puisque la compréhension des effets de l’écologie sur les paternités hors couple est essentielle pour une meilleure connaissance de la sélection sexuelle, des stratégies d’appariement et par le fait même, des processus évolutifs. De plus, identifier le rôle joué par le paysage dans les stratégies sexuelles pourrait aider à élaborer des plans de conservation appropriés pour les espèces dont le déclin est attribuable à des changements dans l’environnement.
Resumo:
Les prescrits didactiques et le programme d’Histoire et éducation à la citoyenneté (Gouvernement du Québec, 2007) défendent actuellement des pratiques d’enseignement visant l’apprentissage de la pensée historique. Un apprentissage qui est défini comme une activité intellectuelle inscrite dans une démarche de résolution de problème, permettant de développer une compréhension plus approfondie des réalités sociales dans la perspective du temps (Martineau, 2010). Toutefois, les recherches indiquent que cet apprentissage serait variablement intégré aux pratiques effectives dans les classes d’histoire (Levstik, 2008), notamment au Québec (Boutonnet, 2013; Moisan, 2010). À cet égard, il semblerait y avoir un écart entre les finalités auxquelles les enseignants adhèrent et les situations d’enseignement-apprentissage qu’ils mettent en œuvre. Pour mettre en lumière cette variabilité, nous avons réalisé une recherche exploratoire visant à décrire les pratiques d’enseignement en histoire en troisième et en quatrième années du secondaire. À cette fin, nous avons eu recours aux théories des représentations sociales (Moscovici, 1976) et de l’attribution (Deschamps, 1996) permettant de recenser, dans le savoir commun des enseignants d’histoire, des éléments relatifs à l’apprentissage de la pensée historique. Ce savoir a été analysé en fonction de quatre types de variables : l’opinion, les dispositifs d’enseignement, les attributions et les attitudes individuelles à l’égard de l’apprentissage de la pensée historique. Les données ont été recueillies auprès d’un échantillon de convenance de huit enseignants, et elles ont été analysées dans le cadre d’une approche lexicométrique. La procédure de cueillette a consisté à réaliser quatre entrevues auprès de chacun de ces enseignants, lors des phases préactive et postactive de trois situations d’enseignement-apprentissage, pour identifier par la récurrence des discours des propriétés invariantes. Les données ont été interprétées en fonction de deux types de fondement théorique, relatifs aux théories de l’apprentissage, illustrant différentes manières d’apprendre à penser historiquement, et aux modèles de pratique, décrivant des dispositifs séquencés d’enseignement associés à cet apprentissage. De manière générale, les résultats révèlent la prédominance des théories de l’apprentissage de sens commun, socioconstructiviste et cognitivo-rationaliste, ainsi que des modèles de pratique fondés sur la conceptualisation et le tâtonnement empirique. Même si cette recherche ne peut être considérée représentative, elle a comme principale retombée scientifique de livrer une description de pratiques nuancée, exprimant différentes modulations de l’apprentissage de la pensée historique au niveau des pratiques. Cette recherche contribue à alimenter la réflexion auprès des chercheurs, des formateurs et des enseignants qui pourront mettre en perspective les pratiques actuelles relatives à un apprentissage des plus importants en histoire.
Resumo:
Le manque de motivation des ressources humaines dans les secteurs public et para-public est un aspect qui se manifeste par un plus grand désintéressement noté au niveau du personnel. Dans une période économique difficile où la productivité et la créativité sont recherchées afin de conserver une compétitivité, la motivation du personnel devient un grand sujet d'intérêt pour les directions. Cet essai présente la gestion des ressources humaines en mettant en relation les principes et théories sur la motivation au travail, sur le développement de la personne au travail et sur les besoins des collèges. Dans un premier temps, le problème de la motivation du personnel dans les collèges est abordé. Un bref survol de la naissance des collèges et de leur évolution dans le domaine des ressources humaines est fait, pour terminer avec un constat de la démotivation du personnel. Par la suite, les questions de recherche sont formulées ainsi que les objectifs poursuivis. Dans le chapitre suivant, plusieurs théories sont présentées. La théorie des besoins de A. MASLOW et la théorie des facteurs de F. HERZBERG illustrent les facteurs de motivation. Deux théories développementales sont ensuite présentées: les étapes du cheminement professionnel de Donald E. SUPER et les stades de développement de carrière de D. RIVERIN-SIMARD. Et finalement ce chapitre présente une revue de la littérature et des théories sur la planification des ressources humaines et sur l'évaluation de rendement qui y est relié. En quatrième partie, les bases méthodologiques sont présentées et illustrées par une expérience faite dans un collège régional. Finalement, une dernière partie présente une analyse des résultats suivie de recommandations.
Resumo:
[…] Cette étude débute par l'exposé des conditions spécifiques aux déficients auditifs pour l'acquisition du langage et par la présentation de nos hypothèses (Chapitre 1). Nous faisons ensuite un rappel des études antérieures et nous envisageons les implications méthodologiques de nos hypothèses (Chapitre 2). Nous présentons ensuite notre méthodologie pour le recueil et l'analyse des données (Chapitre 3). Étant données toutes les variables pouvant intervenir (émotivité des sujets, intelligence, facilité d'élocution, milieu familial...) nous vérifions l'homogénéité des corpus. Nous débutons par une analyse statistique permettant de donner les «mesures» des corpus : quantité de discours produit, complexité de ce discours, homogénéité entre les deux groupes linguistiques concernés... (Chapitre 4) Ensuite, nous observons la construction progressive des énoncés, ce qui est l'apanage de l'oral; cela implique donc l'étude de la construction du sens et de la forme grâce à des hésitations, des répétitions et des reprises; là aussi, il faut établir s'il y a homogénéité entre les sujets (Chapitre 5). Pour l'analyse «théorique» des corpus, nous privilégions la théorie des opérations énonciatives élaborée par Antoine Culioli, car elle présente l'avantage de lier un bon nombre de fonctionnements et de manifestations linguistiques, tels que la syntaxe, la sémantique et la morphologie. Nous présentons les grandes lignes de cette théorie dans le Chapitre 6. Nous nous intéressons alors à la façon dont nos sujets procèdent pour mettre en place le thème de leur énoncé. Cet aspect de l'étude concerne donc une dimension sémantique dans les corpus. Nous nous intéressons plus particulièrement aux structures utilisées pour la thématisation, ce qui nous amène à faire le lien avec la syntaxe (Chapitre 7). Enfin, nous nous intéressons au caractère homogène des «erreurs» et aux fonctionnements de la langue utilisée dans les corpus. Nous nous concentrons alors plus précisément sur les repérages effectués par les locuteurs afin de rendre leur discours référentiel (Chapitre 8) […]
Resumo:
L’objectif global de cette étude est de déterminer l’impact de la crise de la dette souveraine européenne sur les titres boursiers des six banques d’importance systémique (D-Sibs) canadiennes et celles des pays PIIGS (Portugal, Irlande, Italie, Grèce & Espagne). À cet effet, nous avons échantillonné nos données entre le 1er janvier 2002 au 31 décembre 2015 pour séparer notre fenêtre temporelle en cinq sous-périodes et ce, dans le but d’isoler certains événements d’envergure systémique. Un des sous-objectifs vise à déterminer s’il y a eu un effet de contagion transfrontalier entre les institutions canadiennes et européennes. Pour chacune des cinq sous-périodes, nous avons donc construit des réseaux basés sur les relations de cointégration entre les prix hebdomadaires des titres boursiers des D-Sibs étudiées. Le second sous-objectif consiste à détecter la présence d’un comportement grégaire auprès des investisseurs, en temps de crise, à l’aide de régressions basées sur la dispersion moyenne entre les rendements de chaque titre et ceux d’un portefeuille de marché composé des D-Sibs canadiennes et des pays PIIGS. Cette étude démontre que la crise financière de 2008-2009 a davantage impacté les banques d’importance systémique intérieure canadiennes et des pays PIIGS, contrairement à la crise de la dette souveraine européenne. En effet, l’effet de contagion transfrontalier est davantage notable lors de la faillite de Lehman Brothers, alors que les turbulences de la crise européenne se sont, en général, limitées à ses frontières. De plus, le comportement grégaire est uniquement détectable lors de la crise des subprimes. Ceci implique que les investisseurs n’ont pas perçu les D-Sibs comme étant menacées par la situation financière précaire de la zone euro.
Resumo:
Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.
Resumo:
Croyant que la connaissance approfondie du style attributionnel des élèves inscrits au cégep pourrait être un pas de plus vers la connaissance des processus psycho-cognitifs de l'élève en situations d'apprentissage scolaire et également une piste d'intervention pour réduire les abandons et les échecs au collégial, nous avons élaboré et validé un questionnaire étudiant les attributions causales reliées à des situations scolaires, le QACSS. La présente recherche correspond à la première étape d'une étude portant sur le style attributionnel des cégépiens. Nous basant sur la théorie des attributions de Weiner et sur l'étude expérimentale de l'ASQ (Attributionnal Style Questionnaire) de Peterson et al. (1982), nous avons élaboré et procédé à l'expérimentation du QACSS auprès de 317 élèves de niveau collégial, inscrits dans divers programmes collégiaux, au secteur régulier. Nous présentons et analysons, dans ce rapport, les résultats obtenus lors de notre étude de validité et de fidélité et nous discutons des principales questions surgies lors de cette analyse. En conclusion, nous affirmons que le QACSS peut être considéré comme un outil fiable de la mesure des attributions causales reliées aux situations scolaires.
Resumo:
Résumé : À l’aube des études humiennes, Norman Kemp Smith appelait à représenter Hume « suivant toutes ses nombreuses activités », comme s’il pressentait que l’étude de la pensée humienne pouvait s’avérer un labyrinthe dans lesquels les commentaires pouvaient s’égarer et se perdre de vue. Ce pressentiment, on peut le dire aujourd’hui, s’est avéré juste, et il porte avec lui une clé de lecture : pour dépasser la représentation parcellaire, fragmentée et ultimement incohérente d’un Hume kaléidoscopique, le mieux est peut-être de s’intéresser à ses activités. La présente thèse vise à circonscrire la pratique humienne de la philosophie, ou, pourrait-on dire, du travail épistémologique et conceptuel, dans l’espace de son magnum opus, et cela à l’aide d’une clé de lecture : celle du réductionnisme. Si le Traité est une oeuvre que l’on peut qualifier d’empiriste, on ne saurait la lire seulement par ce biais ou par celui de questions localisées, et nous montrons que le projet du Traité ne peut se comprendre qu’en voyant comment Hume tente d’y réduire la et les connaissances à des dépendances ou à des parties de sa propre théorie de la nature humaine. Pour cela, nous procédons via quatre chapitres. D’abord, nous tentons de circonscrire les caractéristiques les plus importantes du projet humien, c’est-à-dire de ce que Hume avait l’intention de développer à travers les contenus particuliers du Traité ; ensuite, nous nous concentrons sur la base dont Hume part et dont il se servira pour accomplir des réductions, base que l’on peut appeler une théorie des perceptions doublée d’une théorie de l’esprit (principes, facultés, relations) ; ces deux théories, couplées à un standard strict pour obtenir le statut de « vraie idée » ou d’idée intelligible, semblent amener de par leurs prémisses assez directement au scepticisme, et c’est pourquoi on traitera du scepticisme avant d’évoquer les aspects « naturalistes » du Traité au-delà des éléments de base de la théorie des perceptions et de l’esprit, soit une manoeuvre qui ne suit pas tout à fait l’ordre humien d’exposition mais nous semble suivre un certain ordre des raisons ; enfin, la quatrième partie nous permettra de passer en revue diverses réductions opérées par Hume, celles qui mènent au scepticisme pyrrhonien mises à part, ce qui nous permettra de voir quelles sont les limites et les problèmes afférents à son réductionnisme particulier. Refondateur, systématique et totalisant dans ses intentions, le Traité suit bien plus qu’un projet simplement empiriste, et on verra que dans la démarche humienne l’empirisme apparaît davantage dans les conclusions qu’au point même de départ. En le lisant comme le lieu et la conséquence d’une orientation que l’on peut dire réductionniste, on peut trouver dans le Traité un fil conducteur qui, en dépit de problèmes plus ou moins importants rencontrés en cours de route, ne se rompt pas.
Resumo:
Ce mémoire s’intéresse à l’endettement des gouvernements et aux facteurs historiques qui en sont les causes. L’analyse utilise des données historiques des cinquante États américains afin d’explorer l’influence de différents facteurs d’ordre économique, politique et institutionnel sur l’accumulation de la dette publique. Alors que la littérature met de l’avant l’impact des facteurs économiques, politiques et institutionnels dans la détermination de l’endettement public, la contrainte budgétaire du gouvernement fait ressortir la relation entre le stock de dette publique courant et les déficits passés. Cette relation est au cœur de la question de recherche abordée par le mémoire : quel est le rôle des facteurs économiques, politiques et institutionnels historiques dans l’accumulation de dette publique? Comment estimer leur poids respectif? Afin de répondre à ces questions, l’analyse empirique intègre des variables explicatives économiques, politiques et institutionnelles ayant une composante historique. De plus, elle accorde une attention particulière aux facteurs institutionnels en utilisant différentes sources de données et des caractérisations plus ou moins détaillées pour modéliser les règles budgétaires et les limites d’endettement. Par ailleurs, la méthodologie empirique tient compte de la question de l’endogénéité potentielle des institutions fiscales. Les résultats de l’analyse économétrique confirment l’importance des facteurs économiques. Dans le cas des variables politiques, ils infirment la théorie selon laquelle les gouvernements divisés s’endettent davantage, mais confirment que l’appartenance politique des gouverneurs a un effet certain sur le poids de la dette publique. Ils indiquent également que l’indice historique d’alternance des partis politiques est important, l’alternance plus fréquente étant associée à une légère diminution de l’endettement. L’instabilité politique n’alimenterait donc pas nécessairement l’endettement public, ce qui suggère qu’il est possible qu’une plus forte compétition électorale puisse avoir un effet positif sur la rigueur budgétaire dans un système à deux partis politiques. De façon générale, les effets estimés des variables institutionnelles impliquent qu’elles ne sont que peu efficaces à limiter l’endettement des États.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Les étudiants de première année de licence de l’Université Catholique de Lille (UCL) constituent une population à part. D’une part, ils sont inscrits dans l’enseignement supérieur privé associatif, qui constitue une part minoritaire, mais croissante du paysage de l’enseignement supérieur français. D’autre part, leurs caractéristiques socio-économiques et leurs antécédents scolaires ne semblent pas suffisants pour expliquer leur taux de réussite plus élevé que l’ensemble des étudiants de première année de licence. Or, dans les pays occidentaux, les taux d’échecs observés en première année d’université ont généré une large littérature scientifique cherchant à mieux comprendre quelles caractéristiques étaient en mesure d’expliquer l’échec ou la réussite étudiante. Parmi les pistes proposées, l’étude des caractéristiques motivationnelles semble prometteuse. Nous nous sommes donc demandé quelles étaient les caractéristiques motivationnelles, que nous avons appelées profils, des étudiants de première année de licence de l’UCL. Pour répondre à cette question, nous avons essayé de savoir si les activités pédagogiques proposées habituellement en première année pouvaient se révéler un élément déterminant au niveau de la motivation. Le contexte de l’UCL, misant fortement sur l’innovation pédagogique pour l’avenir, rend cet éclairage particulièrement intéressant pour les responsables pédagogiques et les enseignants. Mais la particularité du système d’accès au supérieur et la spécificité de l’enseignement supérieur privé associatif nous ont également amené à questionner la motivation à effectuer des études de ces étudiants. En effet, il est difficile de s’imaginer mesurer la motivation dans une activité pédagogique sans tenir compte des motivations à s’engager dans les études de manière générale. Nous nous sommes appuyés sur un cadre de référence original empruntant à la fois à la théorie de l’autodétermination (Deci et Ryan, 1985) et de la dynamique motivationnelle au sein d’une activité pédagogique (Viau, 2009). Si l’objectif général est d’établir les profils motivationnels des étudiants de première année de licence de l’UCL, nous nous sommes demandé quelles caractéristiques personnelles (âge, sexe, origine sociale, antécédents scolaires, discipline, type d’établissement, choix et type de sélection) significatives influencent les profils motivationnels. Les résultats de l’étude portant sur 457 étudiants montrent une motivation très élevée envers les études, soutenue par des motifs à la fois intrinsèques et extrinsèques, pourtant opposés selon la théorie de l’autodétermination. Les étudiants montrent une motivation élevée envers les travaux dirigés qui allient théorie et pratique mais aussi envers les activités pédagogiques avec lesquelles ils sont familiers. Les étudiants de faculté sont motivés envers les cours magistraux et moins envers les projets, ce qui est l’inverse des étudiants en école. Notons que le résultat le plus original provient de l’étude des caractéristiques faisant varier les profils. En effet, aucune des caractéristiques personnelles étudiées ne fait varier les profils à l’exception des disciplines et du type d’établissement (école ou faculté) où sont observées des variations statistiques. En outre, au sein d’une même discipline, les différences existent en fonction du type d’établissement. Autrement dit, des facteurs contextuels propres aux établissements ou à la culture disciplinaire sont à l’origine des différents profils motivationnels. Ces conclusions renforcent le rôle de l’institution et des facteurs environnementaux propres aux établissements dans les niveaux de motivation des étudiants. Notre recherche donne également des données importantes aux acteurs de terrain en contact direct avec les étudiants.
Resumo:
Cette thèse par articles s’intéresse au cycle intergénérationnel de la victimisation sexuelle dans l’enfance. Un premier article a pour objectif de faire état des connaissances scientifiques actuelles sur le cycle intergénérationnel de la victimisation sexuelle dans l’enfance et propose un premier modèle explicatif basé sur la théorie du trauma. L’objectif du deuxième article est d’identifier, sur la base de ce modèle, les facteurs maternels qui sont associés à la continuité intergénérationnelle de la victimisation sexuelle dans l’enfance auprès de mères la population générale. Un groupe de 45 mères victimes d’ASE et ayant au moins un enfant agressé sexuellement est comparé à un groupe de 116 mères victimes d’ASE, mais pour lesquelles aucun de leur enfant n’a été agressé sexuellement avant l’âge de 18 ans. L'analyse de régression logistique montre que la présence des symptômes de l’état de stress posttraumatique, le fait d’avoir subi de la violence conjugale dans la dernière année et le fait d’avoir été agressée sexuellement pour la première fois avant l’âge de six ans ou à l’adolescence prédisent l’appartenance des mères au groupe de continuité intergénérationnelle. Le troisième article vise à comparer le profil psychosocial d’enfants agressés sexuellement et de leur mère, selon que celle-ci rapporte ou non une ASE, et ce, auprès de 87 dyades mère-enfant recevant des services sociaux québécois. Les 44 mères (51 %) rapportant avoir été victimes d’ASE sont comparées aux 43 mères d’enfants agressés sexuellement qui ne rapportent pas d’antécédent d’ASE. Les résultats des analyses de régression logistique montrent que les mères ayant elles-mêmes été victimes d’ASE rapportent un score plus élevé d’autres formes de mauvais traitements dans leur enfance, une plus grande prévalence à vie de troubles d’abus d’alcool, de dysthymie et de trouble panique. Comparés aux enfants pour qui leur mère n’a pas été agressée sexuellement, ceux dont la mère rapporte aussi une ASE sont plus susceptibles de présenter des problèmes de comportement d’intensité clinique et d’avoir été agressés par une personne de confiance. La discussion met en lumière les apports scientifiques des résultats de cette thèse et aborde les enjeux méthodologiques que soulève l’étude du cycle intergénérationnel de la victimisation sexuelle dans l’enfance. Les avenues de recherche que suggèrent les résultats de cette thèse sont aussi discutées et des recommandations sont formulées concernant l’intervention auprès des victimes d’ASE.
Resumo:
Le dimensionnement basé sur la performance (DBP), dans une approche déterministe, caractérise les objectifs de performance par rapport aux niveaux de performance souhaités. Les objectifs de performance sont alors associés à l'état d'endommagement et au niveau de risque sismique établis. Malgré cette approche rationnelle, son application est encore difficile. De ce fait, des outils fiables pour la capture de l'évolution, de la distribution et de la quantification de l'endommagement sont nécessaires. De plus, tous les phénomènes liés à la non-linéarité (matériaux et déformations) doivent également être pris en considération. Ainsi, cette recherche montre comment la mécanique de l'endommagement pourrait contribuer à résoudre cette problématique avec une adaptation de la théorie du champ de compression modifiée et d'autres théories complémentaires. La formulation proposée adaptée pour des charges monotones, cycliques et de type pushover permet de considérer les effets non linéaires liés au cisaillement couplé avec les mécanismes de flexion et de charge axiale. Cette formulation est spécialement appliquée à l'analyse non linéaire des éléments structuraux en béton soumis aux effets de cisaillement non égligeables. Cette nouvelle approche mise en œuvre dans EfiCoS (programme d'éléments finis basé sur la mécanique de l'endommagement), y compris les critères de modélisation, sont également présentés ici. Des calibrations de cette nouvelle approche en comparant les prédictions avec des données expérimentales ont été réalisées pour les murs de refend en béton armé ainsi que pour des poutres et des piliers de pont où les effets de cisaillement doivent être pris en considération. Cette nouvelle version améliorée du logiciel EFiCoS a démontrée être capable d'évaluer avec précision les paramètres associés à la performance globale tels que les déplacements, la résistance du système, les effets liés à la réponse cyclique et la quantification, l'évolution et la distribution de l'endommagement. Des résultats remarquables ont également été obtenus en référence à la détection appropriée des états limites d'ingénierie tels que la fissuration, les déformations unitaires, l'éclatement de l'enrobage, l'écrasement du noyau, la plastification locale des barres d'armature et la dégradation du système, entre autres. Comme un outil pratique d'application du DBP, des relations entre les indices d'endommagement prédits et les niveaux de performance ont été obtenus et exprimés sous forme de graphiques et de tableaux. Ces graphiques ont été développés en fonction du déplacement relatif et de la ductilité de déplacement. Un tableau particulier a été développé pour relier les états limites d'ingénierie, l'endommagement, le déplacement relatif et les niveaux de performance traditionnels. Les résultats ont démontré une excellente correspondance avec les données expérimentales, faisant de la formulation proposée et de la nouvelle version d'EfiCoS des outils puissants pour l'application de la méthodologie du DBP, dans une approche déterministe.