17 resultados para Mélange de distributions khi-deux non centrées
Resumo:
L'objectif de cette étude est d'évaluer les liens entre les variables familiales et les élèves fortement à risque de décrochage scolaire. Deux types de variables familiales sont abordés dans ce mémoire, il s'agit des variables reliées aux pratiques éducatives et des variables environnementales. L'échantillon est composé de 42 élèves présentant de graves difficultés d'apprentissage. Ces élèves proviennent du programme I.S.P.M.T. (Insertion sociale et professionnelle au marché du travail) de l'école secondaire St-Jérôme de la région des Laurentides. Les sujets ont été évalués avec le Questionnaire de renseignements généraux et le Family Environment Scale (Moos & Moos, 1981). Durant l'année scolaire, 25 de ces sujets ont décroché et 17 ont persévéré. Ainsi, une comparaison entre les élèves persévérants et les décrocheurs fut effectuée. Tout d'abord, le test du khi-deux (Pearson) fut utilisé afin d'évaluer le lien entre certaines variables (niveau socio-économique de la famille et élèves persévérants et décrocheurs). Auprès de l'échantillon, les résultats indiquent qu'il n'y a pas de différence significative au niveau socio-économique de la famille dans le fait de poursuivre ou non ses études. Par la suite, le test non-paramétrique de Mann-Whitney nous a permis de vérifier si nos deux groupes (élèves persévérants et décrocheurs) différaient l'un de l'autre sur les trois dimensions du Family Environment Scale (Moos & Moos, 1981). Certains résultats obtenus aux différentes sous-échelles de ce questionnaire sont significatifs. De façon générale, les résultats indiquent que les élèves persévérants ont un degré d'engagement, d'aide et de support entre les membres de leur famille supérieur à celui des familles des décrocheurs. Pour l'ensemble du questionnaire, les rangs moyens obtenus par les élèves persévérants sont supérieurs à ceux des décrocheurs. En comparaison au milieu familial des élèves décrocheurs, les résultats suggèrent que le milieu familial des élèves persévérants est caractérisé par de meilleures relations parents-enfant, entraînant ainsi un climat de vie familiale recherché.
Sur des estimateurs et des tests non-paramétriques pour des distributions et copules conditionnelles
Resumo:
Pour modéliser un vecteur aléatoire en présence d'une co-variable, on peut d'abord faire appel à la fonction de répartition conditionnelle. En effet, cette dernière contient toute l'information ayant trait au comportement du vecteur étant donné une valeur prise par la co-variable. Il peut aussi être commode de séparer l'étude du comportement conjoint du vecteur de celle du comportement individuel de chacune de ses composantes. Pour ce faire, on utilise la copule conditionnelle, qui caractérise complètement la dépendance conditionnelle régissant les différentes associations entre les variables. Dans chacun des cas, la mise en oeuvre d'une stratégie d'estimation et d'inférence s'avère une étape essentielle à leur utilisant en pratique. Lorsqu'aucune information n'est disponible a priori quant à un choix éventuel de modèle, il devient pertinent d'opter pour des méthodes non-paramétriques. Le premier article de cette thèse, co-écrit par Jean-François Quessy et moi-même, propose une façon de ré-échantillonner des estimateurs non-paramétriques pour des distributions conditionnelles. Cet article a été publié dans la revue Statistics and Computing. En autres choses, nous y montrons comment obtenir des intervalles de confiance pour des statistiques s'écrivant en terme de la fonction de répartition conditionnelle. Le second article de cette thèse, co-écrit par Taoufik Bouezmarni, Jean-François Quessy et moi-même, s'affaire à étudier deux estimateurs non-paramétriques de la copule conditionnelles, proposés par Gijbels et coll. en présence de données sérielles. Cet article a été soumis dans la revue Statistics and Probability Letters. Nous identifions la distribution asymptotique de chacun de ces estimateurs pour des données mélangeantes. Le troisième article de cette thèse, co-écrit par Taoufik Bouezmarni, Jean-François Quessy et moi-même, propose une nouvelle façon d'étudier les relations de causalité entre deux séries chronologiques. Cet article a été soumis dans la revue Electronic Journal of Statistics. Dans cet article, nous utilisons la copule conditionnelle pour caractériser une version locale de la causalité au sens de Granger. Puis, nous proposons des mesures de causalité basées sur la copule conditionnelle. Le quatrième article de cette thèse, co-écrit par Taoufik Bouezmarni, Anouar El Ghouch et moi-même, propose une méthode qui permette d'estimer adéquatement la copule conditionnelle en présence de données incomplètes. Cet article a été soumis dans la revue Scandinavian Journal of Statistics. Les propriétés asymptotiques de l'estimateur proposé y sont aussi étudiées. Finalement, la dernière partie de cette thèse contient un travail inédit, qui porte sur la mise en oeuvre de tests statistiques permettant de déterminer si deux copules conditionnelles sont concordantes. En plus d'y présenter des résultats originaux, cette étude illustre l'utilité des techniques de ré-échantillonnage développées dans notre premier article.
Resumo:
L’identité professionnelle des travailleurs sociaux (TS) est l’objet de débats et d’enjeux au sein de la profession depuis longtemps. Le caractère a priori insaisissable de la dimension relationnelle n’est pas sans participer à cette préoccupation constante à l’égard de la professionnalité du travail social. Confrontée à une difficulté de conceptualisation, et, par voie de conséquence, d’évaluation des productions des TS, la profession souffre d’un sentiment de non-reconnaissance par la population et par le champ des professions sociales. Cette difficulté à concevoir et à nommer sa pratique va même jusqu’à provoquer un haut taux de détresse et de retrait au travail chez les TS. Si la médiation représente le trait distinctif du travail social, elle n’apparait pas spontanément dans les discours des TS ; celle-ci étant plutôt conçue en termes de négociation ou de résolution de conflits. Pourtant, l’intervention sociale du TS repose sur une médiation fondamentale qui rend possible l’harmonisation des dimensions individuelle et sociale caractéristiques du travail social et qui conduit un usager à reprendre du pouvoir sur sa vie afin que ses besoins sociaux trouvent enfin satisfaction et que se rétablisse l’échange social. L’action du TS est donc essentiellement médiatrice, puisqu’elle vise l’objectivation et la transformation d’un rapport rompu entre un usager et une norme sociale. La position du TS à l’interface de différents systèmes, qu’ils soient individuels, institutionnels, organisationnels, politiques ou sociaux, facilite par ailleurs l’accomplissement de la médiation. Or, l’occultation de cette spécificité professionnelle, dans un contexte où la profession est amenée à débattre publiquement de ses productions, accroit l’importance de mieux comprendre cette pratique professionnelle. C’est dans cette perspective que cette thèse de doctorat a souhaité caractériser la dimension médiatrice de la pratique professionnelle de TS œuvrant en Centres de santé et de services sociaux (CSSS). Plus spécifiquement, deux composantes de la pratique de TS en CSSS ont été analysées: l’intervention sociale telle que réalisée en situation et l’intervention sociale telle que consignée par écrit. Deux formes de données ont donc constitué le corpus analysé: des enregistrements audio d’entrevues individuelles conduites par six TS auprès d’usagers et la reprographie des notes évolutives insérées aux dossiers à la suite de ces entrevues. Le recours à un dispositif de traitement et d’analyse des données fondé sur la méthode d’analyse structurale de discours a guidé l’analyse de ces deux types de données. Cette dernière, parce qu’elle permet de dégager les univers de sens donnés à une profession et qui orientent la conduite de la pratique professionnelle de ses agents, donne accès aux référents professionnels partagés par l’ensemble du groupe et, par voie de conséquence, met à jour les piliers de son identité professionnelle. Les résultats font ressortir un écart dans l’intervention sociale telle que réalisée et telle que consignée aux dossiers. Se référant tantôt aux normes sociales tantôt au cadre normatif institutionnel, ses visées oscillent entre la recherche d’une transformation sociale et l’atteinte d’un équilibre fonctionnel chez l’usager. Deux logiques d’intervention sont donc mises en œuvre : une logique d’accompagnement lors des entretiens auprès de l’usager et une logique thérapeutique dans les notes aux dossiers. En situation, il s’agit d’un travail social fondé sur une logique d’accompagnement de l’usager dans l’instauration d’un registre d’action visant à le rendre autonome dans la prise en charge de ses difficultés. Le TS devient dès lors accompagnateur et guide vers le changement. Dans le cadre de la logique thérapeutique, le TS se positionne plutôt comme le spécialiste des problèmes de l’usager. Par la maitrise d’actes cliniques et diagnostiques que lui seul est à même de poser, les symptômes identifiés peuvent enfin être contrôlés, les critères institutionnels d’octroi de services sociaux être rencontrés et son intervention plus facilement évaluée. Si l’idée d’améliorer la situation de l’usager est celle qui prime dans les entrevues, dans les notes aux dossiers, l’intention est de démontrer sa compétence envers le problème de l’usager. Quelles que soient ces distinctions, et en dépit de l’écart observé et des exigences actuelles pesant sur la profession, les constats dégagés indiquent que le travail social conserve le même mandat : agir sur les rapports des usagers aux normes sociales, quelle que soit la forme de ces normes.
Resumo:
Dans ce mémoire, nous expliquons d'abord que les principaux critères d'évaluation d'un plan-média qui sont utilisés en pratique sont inappropriés parce qu'ils reposent sur des hypothèses irréalistes concernant le comportement des rendements marginaux des expositions à la publicité. Les distributions d'exposition à la publicité sont ensuite utilisées pour modéliser l'impact de différents plans-média en assumant l'existence de rendements marginaux décroissants en publicité. La performance de ce premier modèle est comparée à celle d'un autre modèle où l'impact est fonction de la taille de l'auditoire-cible des différents supports publicitaires et du nombre d'insertions dans chacun de ceux-ci. Nous trouvons une forte relation entre les deux modèles, ce qui suggère que les données qui alimentent le deuxième modèle et qui sont immédiatement disponibles pour tous les types de médias peuvent remplacer les distributions d'exposition dont l'estimation est beaucoup plus complexe. Nous dérivons enfin une règle de répartition du budget de publicité qui permet de déterminer de façon analytique le meilleur plan-média sans avoir recours à la procédure exhaustive d'essai et erreur qui est utilisée dans la plupart des modèles-média.
Resumo:
Le béton conventionnel (BC) a de nombreux problèmes tels que la corrosion de l’acier d'armature et les faibles résistances des constructions en béton. Par conséquent, la plupart des structures fabriquées avec du BC exigent une maintenance fréquent. Le béton fibré à ultra-hautes performances (BFUP) peut être conçu pour éliminer certaines des faiblesses caractéristiques du BC. Le BFUP est défini à travers le monde comme un béton ayant des propriétés mécaniques, de ductilité et de durabilité supérieures. Le BFUP classique comprend entre 800 kg/m³ et 1000 kg/m³ de ciment, de 25 à 35% massique (%m) de fumée de silice (FS), de 0 à 40%m de poudre de quartz (PQ) et 110-140%m de sable de quartz (SQ) (les pourcentages massiques sont basés sur la masse totale en ciment des mélanges). Le BFUP contient des fibres d'acier pour améliorer sa ductilité et sa résistance aux efforts de traction. Les quantités importantes de ciment utilisées pour produire un BFUP affectent non seulement les coûts de production et la consommation de ressources naturelles comme le calcaire, l'argile, le charbon et l'énergie électrique, mais affectent également négativement les dommages sur l'environnement en raison de la production substantielle de gaz à effet de serre dont le gas carbonique (CO[indice inférieur 2]). Par ailleurs, la distribution granulométrique du ciment présente des vides microscopiques qui peuvent être remplis avec des matières plus fines telles que la FS. Par contre, une grande quantité de FS est nécessaire pour combler ces vides uniquement avec de la FS (25 à 30%m du ciment) ce qui engendre des coûts élevés puisqu’il s’agit d’une ressource limitée. Aussi, la FS diminue de manière significative l’ouvrabilité des BFUP en raison de sa surface spécifique Blaine élevée. L’utilisation du PQ et du SQ est également coûteuse et consomme des ressources naturelles importantes. D’ailleurs, les PQ et SQ sont considérés comme des obstacles pour l’utilisation des BFUP à grande échelle dans le marché du béton, car ils ne parviennent pas à satisfaire les exigences environnementales. D’ailleurs, un rapport d'Environnement Canada stipule que le quartz provoque des dommages environnementaux immédiats et à long terme en raison de son effet biologique. Le BFUP est généralement vendu sur le marché comme un produit préemballé, ce qui limite les modifications de conception par l'utilisateur. Il est normalement transporté sur de longues distances, contrairement aux composantes des BC. Ceci contribue également à la génération de gaz à effet de serre et conduit à un coût plus élevé du produit final. Par conséquent, il existe le besoin de développer d’autres matériaux disponibles localement ayant des fonctions similaires pour remplacer partiellement ou totalement la fumée de silice, le sable de quartz ou la poudre de quartz, et donc de réduire la teneur en ciment dans BFUP, tout en ayant des propriétés comparables ou meilleures. De grandes quantités de déchets verre ne peuvent pas être recyclées en raison de leur fragilité, de leur couleur, ou des coûts élevés de recyclage. La plupart des déchets de verre vont dans les sites d'enfouissement, ce qui est indésirable puisqu’il s’agit d’un matériau non biodégradable et donc moins respectueux de l'environnement. Au cours des dernières années, des études ont été réalisées afin d’utiliser des déchets de verre comme ajout cimentaire alternatif (ACA) ou comme granulats ultrafins dans le béton, en fonction de la distribution granulométrique et de la composition chimique de ceux-ci. Cette thèse présente un nouveau type de béton écologique à base de déchets de verre à ultra-hautes performances (BEVUP) développé à l'Université de Sherbrooke. Les bétons ont été conçus à l’aide de déchets verre de particules de tailles variées et de l’optimisation granulaire de la des matrices granulaires et cimentaires. Les BEVUP peuvent être conçus avec une quantité réduite de ciment (400 à 800 kg/m³), de FS (50 à 220 kg/m³), de PQ (0 à 400 kg/m³), et de SQ (0-1200 kg/m³), tout en intégrant divers produits de déchets de verre: du sable de verre (SV) (0-1200 kg/m³) ayant un diamètre moyen (d[indice inférieur 50]) de 275 µm, une grande quantité de poudre de verre (PV) (200-700 kg/m³) ayant un d50 de 11 µm, une teneur modérée de poudre de verre fine (PVF) (50-200 kg/m³) avec d[indice inférieur] 50 de 3,8 µm. Le BEVUP contient également des fibres d'acier (pour augmenter la résistance à la traction et améliorer la ductilité), du superplastifiants (10-60 kg/m³) ainsi qu’un rapport eau-liant (E/L) aussi bas que celui de BFUP. Le remplacement du ciment et des particules de FS avec des particules de verre non-absorbantes et lisse améliore la rhéologie des BEVUP. De plus, l’utilisation de la PVF en remplacement de la FS réduit la surface spécifique totale nette d’un mélange de FS et de PVF. Puisque la surface spécifique nette des particules diminue, la quantité d’eau nécessaire pour lubrifier les surfaces des particules est moindre, ce qui permet d’obtenir un affaissement supérieur pour un même E/L. Aussi, l'utilisation de déchets de verre dans le béton abaisse la chaleur cumulative d'hydratation, ce qui contribue à minimiser le retrait de fissuration potentiel. En fonction de la composition des BEVUP et de la température de cure, ce type de béton peut atteindre des résistances à la compression allant de 130 à 230 MPa, des résistances à la flexion supérieures à 20 MPa, des résistances à la traction supérieure à 10 MPa et un module d'élasticité supérieur à 40 GPa. Les performances mécaniques de BEVUP sont améliorées grâce à la réactivité du verre amorphe, à l'optimisation granulométrique et la densification des mélanges. Les produits de déchets de verre dans les BEVUP ont un comportement pouzzolanique et réagissent avec la portlandite générée par l'hydratation du ciment. Cependant, ceci n’est pas le cas avec le sable de quartz ni la poudre de quartz dans le BFUP classique, qui réagissent à la température élevée de 400 °C. L'addition des déchets de verre améliore la densification de l'interface entre les particules. Les particules de déchets de verre ont une grande rigidité, ce qui augmente le module d'élasticité du béton. Le BEVUP a également une très bonne durabilité. Sa porosité capillaire est très faible, et le matériau est extrêmement résistant à la pénétration d’ions chlorure (≈ 8 coulombs). Sa résistance à l'abrasion (indice de pertes volumiques) est inférieure à 1,3. Le BEVUP ne subit pratiquement aucune détérioration aux cycles de gel-dégel, même après 1000 cycles. Après une évaluation des BEVUP en laboratoire, une mise à l'échelle a été réalisée avec un malaxeur de béton industriel et une validation en chantier avec de la construction de deux passerelles. Les propriétés mécaniques supérieures des BEVUP a permis de concevoir les passerelles avec des sections réduites d’environ de 60% par rapport aux sections faites de BC. Le BEVUP offre plusieurs avantages économiques et environnementaux. Il réduit le coût de production et l’empreinte carbone des structures construites de béton fibré à ultra-hautes performances (BFUP) classique, en utilisant des matériaux disponibles localement. Il réduit les émissions de CO[indice inférieur 2] associées à la production de clinkers de ciment (50% de remplacement du ciment) et utilise efficacement les ressources naturelles. De plus, la production de BEVUP permet de réduire les quantités de déchets de verre stockés ou mis en décharge qui causent des problèmes environnementaux et pourrait permettre de sauver des millions de dollars qui pourraient être dépensés dans le traitement de ces déchets. Enfin, il offre une solution alternative aux entreprises de construction dans la production de BFUP à moindre coût.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Chaque année, des adolescents québécois sont soumis à des sanctions judiciaires en raison de leurs actes de délinquance (Association des centres jeunesse du Québec, 2015). Plusieurs recherches récentes indiquent que ces jeunes sont plus à risque de répondre aux critères diagnostiques d’au moins un trouble mental que les adolescents de la population générale (Fazel, Doll, & Langstrom, 2008; Vermeiren, 2003). Les jeunes contrevenants sont également plus nombreux à présenter des symptômes et des troubles intériorisés (Abram et al., 2014; Skowyra & Cocozza, 2007; Teplin et al., 2006), soit des comportements anxieux, dépressifs, de retrait et des plaintes somatiques (Achenbach & McConaughy, 1992). Cette thèse contribue aux connaissances quant aux symptômes et aux troubles intériorisés chez les jeunes contrevenants en traitant de deux sujets peu étudiés : les problèmes intériorisés des jeunes contrevenants associés aux gangs de rue et l’identification de ces problèmes par les intervenants travaillant auprès d’eux. Le premier article composant la thèse présente une étude descriptive où le nombre de symptômes et de troubles intériorisés a été comparé entre des jeunes contrevenants révélant être ou avoir été associés aux gangs de rue (n = 62) et des jeunes contrevenants n’ayant pas révélé une telle association (n = 41). Les symptômes et les troubles intériorisés ont été mesurés à l’aide d’un questionnaire et d’une entrevue diagnostique semi-structurée. Les résultats indiquent que les jeunes associés aux gangs présentent davantage de symptômes de dépression-anxiété et sont plus nombreux à répondre aux critères diagnostiques d’au moins un trouble anxieux que ceux qui n’y sont pas associés. De plus, près de la moitié des participants, associés ou non aux gangs de rue, répondent aux critères diagnostiques d’au moins un trouble intériorisé. Cette forte prévalence de troubles intériorisés soulève l’importance que ceux-ci soient dépistés par les intervenants travaillant auprès des jeunes contrevenants. En effet, considérant que les troubles mentaux non traités entrainent de la souffrance, nuisent au fonctionnement et sont liés à des taux de tentatives de suicide, d’arrestations et de récidive plus élevés (Abram et al., 2014; Cottle, Lee, & Heilbrun, 2001; Hoeve, McReynolds, & Wasserman, 2013; Schonfeld et al., 1997), leur identification s’avère primordiale afin qu’ils puissent bénéficier des services dont ils auraient besoin. Le deuxième article de cette thèse est une étude exploratoire où sont recensés les symptômes et les troubles intériorisés mentionnés par les intervenants au rapport prédécisionnel (RPD) de 22 participants. La concordance entre ces symptômes et troubles intériorisés et ceux autorapportés par les jeunes contrevenants par un questionnaire et une entrevue semi-structurée est ensuite évaluée. Plusieurs symptômes et troubles intériorisés seraient « sous-identifiés » dans le RPD des jeunes contrevenants en comparaison de ce qui est révélé par les participants. Les résultats de ces deux études laissent croire qu’il serait pertinent d’offrir de la formation aux intervenants quant aux symptômes et aux troubles intériorisés chez les adolescents, d’implanter une procédure de dépistage systématique des troubles mentaux, et d’inclure les symptômes et les troubles intériorisés dans les programmes de prévention et de traitement offerts aux jeunes contrevenants.
Resumo:
Abstract : The structural build-up of fresh cement-based materials has a great impact on their structural performance after casting. Accordingly, the mixture design should be tailored to adapt the kinetics of build-up given the application on hand. The rate of structural build-up of cement-based suspensions at rest is a complex phenomenon affected by both physical and chemical structuration processes. The structuration kinetics are strongly dependent on the mixture’s composition, testing parameters, as well as the shear history. Accurate measurements of build-up rely on the efficiency of the applied pre-shear regime to achieve an initial well-dispersed state as well as the applied stress during the liquid-solid transition. Studying the physical and chemical mechanisms of build-up of cement suspensions at rest can enhance the fundamental understanding of this phenomenon. This can, therefore, allow a better control of the rheological and time-dependent properties of cement-based materials. The research focused on the use of dynamic rheology in investigating the kinetics of structural build-up of fresh cement pastes. The research program was conducted in three different phases. The first phase was devoted to evaluating the dispersing efficiency of various disruptive shear techniques. The investigated shearing profiles included rotational, oscillatory, and combination of both. The initial and final states of suspension’s structure, before and after disruption, were determined by applying a small-amplitude oscillatory shear (SAOS). The difference between the viscoelastic values before and after disruption was used to express the degree of dispersion. An efficient technique to disperse concentrated cement suspensions was developed. The second phase aimed to establish a rheometric approach to dissociate and monitor the individual physical and chemical mechanisms of build-up of cement paste. In this regard, the non-destructive dynamic rheometry was used to investigate the evolutions of both storage modulus and phase angle of inert calcium carbonate and cement suspensions. Two independent build-up indices were proposed. The structural build-up of various cement suspensions made with different cement contents, silica fume replacement percentages, and high-range water reducer dosages was evaluated using the proposed indices. These indices were then compared to the well-known thixotropic index (Athix.). Furthermore, the proposed indices were correlated to the decay in lateral pressure determined for various cement pastes cast in a pressure column. The proposed pre-shearing protocol and build-up indices (phases 1 and 2) were then used to investigate the effect of mixture’s parameters on the kinetics of structural build-up in phase 3. The investigated mixture’s parameters included cement content and fineness, alkali sulfate content, and temperature of cement suspension. Zeta potential, calorimetric, spectrometric measurements were performed to explore the corresponding microstructural changes in cement suspensions, such as inter-particle cohesion, rate of Brownian flocculation, and nucleation rate. A model linking the build-up indices and the microstructural characteristics was developed to predict the build-up behaviour of cement-based suspensions The obtained results showed that oscillatory shear may have a greater effect on dispersing concentrated cement suspension than the rotational shear. Furthermore, the increase in induced shear strain was found to enhance the breakdown of suspension’s structure until a critical point, after which thickening effects dominate. An effective dispersing method is then proposed. This consists of applying a rotational shear around the transitional value between the linear and non-linear variations of the apparent viscosity with shear rate, followed by an oscillatory shear at the crossover shear strain and high angular frequency of 100 rad/s. Investigating the evolutions of viscoelastic properties of inert calcite-based and cement suspensions and allowed establishing two independent build-up indices. The first one (the percolation time) can represent the rest time needed to form the elastic network. On the other hand, the second one (rigidification rate) can describe the increase in stress-bearing capacity of formed network due to cement hydration. In addition, results showed that combining the percolation time and the rigidification rate can provide deeper insight into the structuration process of cement suspensions. Furthermore, these indices were found to be well-correlated to the decay in the lateral pressure of cement suspensions. The variations of proposed build-up indices with mixture’s parameters showed that the percolation time is most likely controlled by the frequency of Brownian collisions, distance between dispersed particles, and intensity of cohesion between cement particles. On the other hand, a higher rigidification rate can be secured by increasing the number of contact points per unit volume of paste, nucleation rate of cement hydrates, and intensity of inter-particle cohesion.
Resumo:
En 1983, un « nouveau » type de logiciels que nous avons appelé « idéateur » est apparu sur le marché de la micro-informatique. Ces logiciels combinent les facilités du traitement de textes avec l'utilisation particulière du « chaînage » de texte. Ce chaînage permet entre autre les manipulations suivantes du texte; classer, mettre en ordre prioritaire, sous-catégoriser des ensembles, lancer les items au hasard, effacer, déplacer ou copier un ou des items, etc. (Pour plus de détails, voir le chapitre 1.2 et les annexes 1 à 3). Après une étude pour situer le cadre de notre recherche (voir le chapitre II) et la traduction du logiciel MaxThink, nous avons introduit cet idéateur dans une classe de français correctif, de niveau collégial. Nous avons choisis ces sujets parce ces étudiant-e-s se servaient déjà de l'ordinateur à l'intérieur des cours et qu'ils (elles) avaient intérêt (pensions-nous) à utiliser l’idéateur pour améliorer leur français. Tous ces sujets ont eu à suivre le cours sur la manipulation de MaxThink. Un design expérimental de catégorie « semi-contrôlée » a été mis en place pour isoler l'influence des trois instruments servant à la composition ; l'idéateur (MaxThink), un traitement de texte traditionnel (Editexte) et le crayon/papier. Le pré-test et le post-test consistant à composer sur un thème déterminé était à chaque fois précédé d'un brainstorming afin de générer une liste d'idées". Par la suite, les textes ont été soumis à trois juges qui ont eu à coter la cohérence globale individuelle pré-test/post-test et la cohérence de groupe au pré-test ainsi qu'au post-test. Deux analyses statistiques non-paramétriques utiles pour un nombre restreint de sujets (trois sous-groupes de quatre sujets) ont été utilisées: analyse de variance (formule KRUSKAL-WALLIS) et analyse des probabilités d'occurrence des distributions (formule HODGES-LEHMANN). En conclusion, nos recommandations tiennent compte de l'analyse statistique des résultats et des commentaires des étudiant-e-s.
Resumo:
Les gouvernements des pays industrialisés occidentaux ont constaté, au cours des années 70, un accroissement des abandons scolaires et une augmentation du taux de chômage chez les jeunes. La solution généralement appliquée fut alors une injection massive de fonds pour des programmes de préparation à l'emploi pour les jeunes sans emploi et les jeunes adultes devenus chômeurs. C'est ce que nous révèlent les rapports présentés lors de la conférence internationale sur "Le passage des jeunes de l'enseignement obligatoire à la vie active" tenue à Salzbourg (Autriche) en avril 1983 par l'Organisation de coopération et de développement économique (OCDE, 1983a). Les mesures adoptées ont pris l'aspect de formations d'appoint, de programmes de création d'emploi, de recherche d'emploi, d'expérience de travail ou de formation en emploi. Dans son enquête sur "Les études et le travail vus par les jeunes", le Centre pour la recherche et l'innovation dans l'enseignement (OCDE, 1983b) déplore cependant le fait que les pouvoirs publics aient accordé l'essentiel de leur attention à une minorité de jeunes soulevant des problèmes d'ordre social et politique les plus visibles et les plus urgents, au détriment d'une majorité de jeunes éprouvant des difficultés moins apparentes mais aussi importantes. […]
Resumo:
Cette étude de cas a pour but de vérifier, chez des enfants autistes, l'effet de l'intégration en milieu scolaire régulier sur la fréquence d'émissions des comportements d'isolement social, de ceux reliés aux troubles de la communication verbale et non verbale ainsi que les comportements stéréotypés. Deux enfants autistes, un garçon de quatre ans et une fillette de cinq ans, ont participé à cette étude. La fréquence d'émission des comportements mentionnés ci-haut a été observée à la maison, en classe spéciale ainsi qu'en classe régulière à l'aide d'une grille conçue spécialement pour les enfants autistes (EGA 111). La collecte d'informations a été effectuée à des périodes précises soit avant l'intégration scolaire (maison 1), au début de l'intégration (phase 1), un mois après l'intégration (phase 2) et deux mois après l'intégration (phase 3) enfin à la maison (maison 2). Vingt heures d'observation ont été collectées au total auprès de chaque enfant Une analyse graphique est utilisée pour présenter les résultats obtenus durant les différentes phases d'observation. Celle-ci est assortie d'une analyse non paramétrique de randomisation pour vérifier si la fréquentation d'un groupe de pairs régulier peut contribuer à diminuer significativement les problèmes de communication, d'émission de comportements stéréotypés et d'isolement social. Sauf une exception, les résultats obtenus démontrent que la fréquence d'émission des comportements d'isolement social, de ceux reliés aux troubles de la communication verbale et non verbale et des comportements stéréotypés diminue au cours de l'intégration scolaire en groupes réguliers et ce, tant en classe spéciale qu'en classe régulière chez chacun des enfants. Il est aussi remarquable de constater que les taux horaires d'émission de comportements d'isolement social, de communication verbale et non verbale ainsi que des activités motrices stéréotypées sont beaucoup plus fréquents en classe spéciale comparativement à la classe régulière. Ces résultats suggèrent que l'intégration au groupe de pairs régulier contribue à diminuer la fréquence d'émission de comportements susceptibles de nuire à la qualité de l'adaptation sociale et à l'apprentissage de nouvelles habiletés et qu'il y a généralisation des acquis en classe spéciale et à la maison.
Resumo:
Dans ses champs de recherches ou d'application scientifiques, la géographie se situe au carrefour de nombreuses autres sciences. Tout au cours de son évolution, ce voisinage l'a amené à s'interroger sur le bien-fondé de ses propres assises scientifiques. Bénéficiant, d'une part, de l'apport de d'autres disciplines et donnant naissance, d'autre part, à des sciences autonomes (sociologie, géomorphologie), elle conserve son approche globale et ses applications concrètes. En respectant cette dualité, mon intérêt m'a porté à aborder à la fois la problématique liée aux programmes d'amélioration de quartier et leurs impacts sur les villes moyennes du Québec. Ces petites villes constituent un champ d'investigation encore peu explorée. Cette étude est d'autant plus pertinente que le département de géographie et le centre de recherche en aménagement régional de l'Université de Sherbrooke y ont trouvé leur vocation particulière. Le choix des villes repose sur deux (2) raisons: elles devaient faire l'objet d'un P.A.Q., posséder des caractéristiques particulières dues à son rôle et à sa localisation; six (6) centres urbaines ont été retenus sur cette base : Hull, ville administrative et pôle administratif dans la région de l'Outaouais ; St-Hyacinthe, ville satellite faisant partie des sept (7) villes de la couronne montréalaise ; Longueuil, ville banlieue en expansion accélérée ; Lachine, ville historique située sur l'Île de Montréal ; Sherbrooke, ville à caractère manufacturier et pôle régional dans l’Estrie ; Drummondville, ville à caractère manufacturier et pôle régional dans la région centre du Québec. Notre démarche est relativement simple. Afin de vérifier si les objectifs des P.A.Q. et les solutions véhiculées dans les programmes de même nature correspondent aux situations que nous aurons nous-mêmes observées, il nous faut analyser tout d'abord les caractéristiques physiques et socio-économiques des quartiers centraux, leur structure et leurs relations avec l'ensemble de leur agglomération respective. Cette description fera l'objet des premier et deuxième chapitres. Pour compléter cette analyse, nous croyons qu'il est nécessaire de composer une seule image avec l'ensemble de ces quartiers pour obtenir l'approche globale que nous désirons. Nous utiliserons l'analyse factorielle pour obtenir une définition de ces quartiers. Nous pourrons ainsi vérifier si elle est contenue dans problématique liée aux programmes de rénovation urbaine. Cette redéfinition constitue la démarche principale du troisième chapitre […].
Resumo:
Le projet présenté au cours de cette thèse porte sur la formation de centres quaternaires entièrement carbonés. Plusieurs axes d’approche ont été établis, et seront présentés par chapitre : le premier fait état de l’utilisation d’une réaction de Vilsmeier-Haack, le second rapporte la fabrication de nouveaux catalyseurs pour la réaction de condensation de Claisen et le dernier utilise la réaction de Vilsmeier-Haack pour la formation d’acides [béta]-aminés non-racémiques. Lors du premier chapitre, le sujet abordé sera l’utilisation de la réaction de Vilsmeier-Haack pour la formation de composés 1,3-dicarbonylés contenant un centre quaternaire entièrement carboné. D’abord nous verrons comment, théoriquement, la chiralité du centre quaternaire peut être contrôlée par l’utilisation d’amines chirales. Puis nous suivrons le développement d’une méthode d’hydrolyse spécifique à l’obtention de composés 1,3-dicarbonylés avec ses forces et ses limites. La deuxième partie de cette thèse portera sur le développement de nouveaux catalyseurs pour la réaction de condensation de Claisen. Plusieurs avenues seront exposées. Dans un premier temps, nous verrons la rationalisation validant chacune des idées d’avenues envisagées, puis nous aborderons les méthodes de synthèses essayées pour les catalyseurs imaginés dans chacune de ces avenues. Le dernier chapitre portera sur la formation de dérivés d’acides [béta]-aminés non-racémiques via l’utilisation d’une réaction de Vilsmeier-Haack. Dans un premier temps, différentes méthodes de réduction applicables à cette réaction seront présentées, et ensuite, le concept d’un nouveau groupe protecteur spécifique aux ions iminiums sera démontré.
Resumo:
Cet essai est une analyse du régime juridique applicable aux accusés qui ont été reconnus non-responsables criminellement pour cause de troubles mentaux en vertu de l'article 16 du Code criminel. Nous exposons tout d'abord l'historique dudit verdict lequel mène à un suivi à double volets, soit juridique et médical, dont nous détaillons le cadre normatif dans une seconde partie. Le premier volet est assuré par une instance administrative alors que le second relève d'un hôpital. Le suivi à double volets sous-tend donc la cohabitation de deux domaines aux objectifs distincts, à savoir la protection de la société à l'égard d'un accusé ayant commis un acte criminel pour l'un et le traitement d'un patient psychiatrique pour l'autre. Les hôpitaux, et plus particulièrement les psychiatres, se retrouvent ainsi avec l'obligation de jongler avec le droit criminel, tout en poursuivant leur objectif principal, soit le traitement de leurs patients. Dans ce contexte, le présent essai tente d'étudier les conséquences potentielles de la rencontre de ces deux domaines sur les droits des accusés. En effet,la mise en place du suivi à double volets visait un respect plus adéquat des droits et libertés des accusés ainsi qu'une meilleure prise en charge médicale de leurs besoins aux fins de leur offrir un traitement approprié. Toutefois, les tensions existant entre le domaine juridique et celui de la santé permettent-elles vraiment d'atteindre de tels objectifs?
Resumo:
Introduction : Les données probantes reconnaissent que les exercices constituent une modalité curative pour traiter la lombalgie non-aiguë. Or, les effets sont modestes, ce qui amène la communauté scientifique à se questionner, entre autre, sur le niveau d’adhésion des patients à leur programme d’exercices à domicile. Cette étude poursuit deux objectifs : (1) explorer l’association entre l’adhésion à un programme d’exercices à domicile et les variables de résultats (primaires : douleur, incapacité ; secondaires : les changements globaux, le sentiment d’efficacité personnelle, la détresse psychologique), (2) explorer l’association entre l’adhésion à ce programme et les principales variables biopsychosociales sur lesquelles le thérapeute peut agir, en utilisant un cadre théorique explicatif incluant : le modèle de peur-évitement, le modèle du sens commun et le concept de l’alliance de travail. Méthode : Une cohorte longitudinale de volontaires de 48 adultes ayant une lombalgie (> 4 semaines) a été recrutée. L’adhésion au programme d’exercices à domicile et les autres facteurs biopsychosociaux ont été mesurés par des questionnaires auto-administrés au début, après quatre semaines, à la fin des huit semaines de traitement et six mois plus tard. Des analyses univariées et multivariées ont été menées. Résultats : Pour le premier objectif, les modèles linéaires mixtes démontrent que l’adhésion est seulement associée aux variables de résultats secondaires. Pour le second objectif, 50 % de la variance de l’adhésion (ICC = 50,00, p < 0,001) a été expliquée par sept variables, les changements globaux ayant la plus forte association avec l’adhésion. Les changements globaux, à leur tour, ont été expliqués par cinq variables (ICC = 22,3, p = 0,028), les représentations ayant la plus forte association. Les représentations ont été expliquées par cinq variables pouvant être incluses dans le modèle peur-évitement (ICC = 49,2, p < 0,001). L’alliance de travail n’était pas associée à l’adhésion. Conclusion : Les variables de résultats secondaires devraient s’ajouter aux variables de résultats primaires dans les études portant sur l’adhésion aux exercices. Le modèle du sens commun a été utile pour expliquer les variables associées à l’adhésion. Le modèle de peur-évitement a été davantage utile pour expliquer les variables associées aux représentations qui sont au cœur du modèle du sens commun.