657 resultados para Indicateurs d’évaluation
Resumo:
Bien que le travail soit bénéfique et souhaité par une majorité de personnes aux prises avec un trouble mental grave (TMG), les études réalisées auprès de cette clientèle montrent des taux d’emploi d’environ 10 à 20%. Parmi les services visant le retour au travail, les programmes de soutien à l’emploi (PSE) se sont montrés les plus efficaces avec des taux de placement en emploi standard oscillant entre 50 et 60%, sans toutefois garantir le maintien en emploi. Plusieurs études ont tenté de cerner les déterminants de l’obtention et du maintien en emploi chez cette population sans toutefois s’intéresser à la personnalité, et ce, bien qu’elle soit reconnue depuis toujours comme un déterminant important du fonctionnement des individus. De plus, peu de questionnaires d’évaluation de la personnalité selon le modèle de la personnalité en cinq facteurs (FFM) ont été utilisés auprès d’une clientèle avec un TMG et ceux-ci ont montré des propriétés psychométriques ne respectant pas des normes reconnues et acceptées. Cette thèse porte sur les liens entre la personnalité et l’intégration au travail chez les personnes avec un TMG. La première partie vise la validation d’un outil de mesure de la personnalité selon le FFM afin de répondre aux objectifs de la deuxième partie de la thèse. À cet effet, deux échantillons ont été recrutés, soit 259 étudiants universitaires et 141 personnes avec un TMG. Des analyses factorielles confirmatoires ont mené au développement d’un nouveau questionnaire à 15 items (NEO-15) dont les indices d’ajustement, de cohérence interne et de validité convergente respectent les normes établies, ce qui en fait un questionnaire bien adapté à la mesure de la personnalité normale dans des contextes où le temps d’évaluation est limité. La deuxième partie présente les résultats d’une étude réalisée auprès de 82 personnes aux prises avec un TMG inscrites dans un PSE et visant à identifier les facteurs d’obtention et de maintien en emploi chez cette clientèle, particulièrement en ce qui concerne la contribution des éléments normaux et pathologiques de la personnalité. Les résultats de régressions logistiques et de régressions de Cox (analyses de survie) ont démontré que l’historique d’emploi, les symptômes négatifs et le niveau de pathologie de la personnalité étaient prédictifs de l’obtention d’un emploi standard et du délai avant l’obtention d’un tel emploi. Une autre série de régressions de Cox a pour sa part démontré que l’esprit consciencieux était le seul prédicteur significatif du maintien en emploi. Malgré certaines limites, particulièrement des tailles d’échantillons restreintes, ces résultats démontrent la pertinence et l’importance de tenir compte des éléments normaux et pathologiques de la personnalité dans le cadre d’études portant sur l’intégration au travail de personnes avec un TMG. De plus, cette thèse a permis de démontrer l’adéquation d’un nouvel instrument de mesure de la personnalité auprès de cette clientèle. Des avenues futures concernant la réintégration professionnelle et le traitement des personnes avec un TMG sont discutées à la lumière de ces résultats.
Resumo:
L’évaluation de l’action humanitaire (ÉAH) est un outil valorisé pour soutenir l’imputabilité, la transparence et l’efficience de programmes humanitaires contribuant à diminuer les inéquités et à promouvoir la santé mondiale. L’EAH est incontournable pour les parties prenantes de programme, les bailleurs de fonds, décideurs et intervenants souhaitant intégrer les données probantes aux pratiques et à la prise de décisions. Cependant, l’utilisation de l’évaluation (UÉ) reste incertaine, l’ÉAH étant fréquemment menée, mais inutilisé. Aussi, les conditions influençant l’UÉ varient selon les contextes et leur présence et applicabilité au sein d’organisations non-gouvernementales (ONG) humanitaires restent peu documentées. Les évaluateurs, parties prenantes et décideurs en contexte humanitaire souhaitant assurer l’UÉ pérenne détiennent peu de repères puisque rares sont les études examinant l’UÉ et ses conditions à long terme. La présente thèse tend à clarifier ces enjeux en documentant sur une période de deux ans l’UÉ et les conditions qui la détermine, au sein d’une stratégie d’évaluation intégrée au programme d’exemption de paiement des soins de santé d’une ONG humanitaire. L’objectif de ce programme est de faciliter l’accès à la santé aux mères, aux enfants de moins de cinq ans et aux indigents de districts sanitaires au Niger et au Burkina Faso, régions du Sahel où des crises alimentaires et économiques ont engendré des taux élevés de malnutrition, de morbidité et de mortalité. Une première évaluation du programme d’exemption au Niger a mené au développement de la stratégie d’évaluation intégrée à ce même programme au Burkina Faso. La thèse se compose de trois articles. Le premier présente une étude d’évaluabilité, étape préliminaire à la thèse et permettant de juger de sa faisabilité. Les résultats démontrent une logique cohérente et plausible de la stratégie d’évaluation, l’accessibilité de données et l’utilité d’étudier l’UÉ par l’ONG. Le second article documente l’UÉ des parties prenantes de la stratégie et comment celle-ci servit le programme d’exemption. L’utilisation des résultats fut instrumentale, conceptuelle et persuasive, alors que l’utilisation des processus ne fut qu’instrumentale et conceptuelle. Le troisième article documente les conditions qui, selon les parties prenantes, ont progressivement influencé l’UÉ. L’attitude des utilisateurs, les relations et communications interpersonnelles et l’habileté des évaluateurs à mener et à partager les connaissances adaptées aux besoins des utilisateurs furent les conditions clés liées à l’UÉ. La thèse contribue à l’avancement des connaissances sur l’UÉ en milieu humanitaire et apporte des recommandations aux parties prenantes de l’ONG.
Resumo:
La mise en œuvre d’activités de prévention de la consommation de substances psychoactives (SPA) (tabac, alcool et cannabis) en milieu scolaire est une stratégie couramment utilisée pour rejoindre un grand nombre de jeunes. Ces activités s’inspirent, soit de programmes existant, soit d’innovations dictées par le contexte d’implantation ou l’existence de données de recherche. Dans un cas comme dans l’autre, l’évaluation de ces programmes représente la meilleure voie pour mesurer leur efficacité et/ou connaître comment ceux-ci sont implantés. C’est cet impératif qui a motivé une commission scolaire du Québec a recommandé l’évaluation de l’Intervention en Réseau (IR), un programme développé en vue de retarder l’âge d’initiation et de réduire la consommation problématique de SPA chez les élèves. Ce programme adopte une approche novatrice avec pour principal animateur un intervenant pivot (IP) qui assure le suivi des élèves de la 5e année du primaire jusqu’en 3e secondaire. Inspiré des modèles en prévention de la santé et de l’Approche École en santé (AES), le rôle de l’IP ici se démarque de ceux-ci. Certes, il est l’interface entre les différents acteurs impliqués et les élèves mais dans le cadre du programme IR, l’IP est intégré dans les écoles primaires et secondaires qu’il dessert. C’est cet intervenant qui assure la mobilisation des autres acteurs pour la mise en œuvre des activités. Cette thèse vise à rendre compte de ce processus d’évaluation ainsi que des résultats obtenus. L’approche d’évaluation en est une de type participatif et collaboratif avec des données quantitatives et qualitatives recueillies par le biais de questionnaires, d’entrevues, de groupes de discussion, d’un journal de bord et de notes de réunions. Les données ont été analysées dans le cadre de trois articles dont le premier concerne l’étude d’évaluabilité (ÉÉ) du programme. Les participants de cette ÉÉ sont des acteurs-clés du programme (N=13) rencontrés en entrevues. Une analyse documentaire (rapports et journal de bord) a également été effectuée. Cette ÉÉ a permis de clarifier les intentions des initiateurs du programme et les objectifs poursuivis par ces derniers. Elle a également permis de rendre la théorie du programme plus explicite et de développer le modèle logique, deux éléments qui ont facilité les opérations d’évaluation qui ont suivi. Le deuxième article porte sur l’évaluation des processus en utilisant la théorie de l’acteur-réseau (TAR) à travers ses quatre moments du processus de traduction des innovations (la problématisation, l’intéressement, l’enrôlement et la mobilisation des alliés), l’analyse des controverses et du rôle des acteurs humains et non-humains. Après l’analyse des données obtenues par entrevues auprès de 19 informateurs-clés, les résultats montrent que les phases d’implantation du programme passent effectivement par les quatre moments de la TAR, que la gestion des controverses par la négociation et le soutien était nécessaire pour la mobilisation de certains acteurs humains. Cette évaluation des processus a également permis de mettre en évidence le rôle des acteurs non-humains dans le processus d’implantation du programme. Le dernier article concerne une évaluation combinée des effets (volet quantitatif) et des processus (volet qualitatif) du programme. Pour le volet quantitatif, un devis quasi-expérimental a été adopté et les données ont été colligées de façon longitudinale par questionnaires auprès de 901 élèves de 5e et 6e année du primaire et leurs enseignants de 2010 à 2014. L’analyse des données ont montré que le programme n’a pas eu d’effets sur l’accessibilité et les risques perçus, l’usage problématique d’alcool et la polyconsommation (alcool et cannabis) chez les participants. Par contre, les résultats suggèrent que le programme pourrait favoriser la réduction du niveau de consommation et retarder l’âge d’initiation à l’alcool et au cannabis. Ils suggèrent également un effet potentiellement positif du programme sur l’intoxication à l’alcool chez les élèves. Quant au volet qualitatif, il a été réalisé à l’aide d’entrevues avec les intervenants (N=17), de groupes de discussion avec des élèves du secondaire (N=10) et d’une analyse documentaire. Les résultats montrent que le programme bénéficie d’un préjugé favorable de la part des différents acteurs ayant participé à l’évaluation et est bien acceptée par ces derniers. Cependant, le roulement fréquent de personnel et le grand nombre d’écoles à suivre peuvent constituer des obstacles à la bonne marche du programme. En revanche, le leadership et le soutien des directions d’écoles, la collaboration des enseignants, les qualités de l’IP et la flexibilité de la mise en œuvre sont identifiés comme des éléments ayant contribué au succès du programme. Les résultats et leur implication pour les programmes et l’évaluation sont discutés. Enfin, un plan de transfert des connaissances issues de la recherche évaluative est proposé.
Resumo:
Afin de pallier au manque d’outils de dépistage efficaces et adaptés à la population âgée, le Geriatric Anxiety Inventory (GAI) et une forme courte (GAI-SF) ont été développés pour évaluer la sévérité des symptômes anxieux chez les aînés. La présente étude cherchait à évaluer les propriétés psychométriques de la version canadienne-française du GAI dans sa forme complète (GAI-FC) et courte (GAI-FC-SF) auprès de la population âgée québécoise francophone. Trois cent trente et une personnes de 65 ans et plus vivant dans la communauté ont participé à cette étude. Les propriétés psychométriques s’avèrent satisfaisantes pour le GAI-FC et le GAI-FC-SF avec, respectivement, une cohérence interne satisfaisante (α = ,94 et ,83), une validité convergente adéquate (r = ,50 à ,86 avec des instruments de mesure évaluant des concepts similaires ou reliés à l’anxiété), une bonne fidélité test-retest (r = ,89 et ,85) ainsi qu’une structure unifactorielle. Les résultats de cette étude appuient l’utilisation du GAI-FC et du GAI-FC-SF pour l’évaluation de l’anxiété chez les aînés québécois. Le GAI-FC-SF semble une alternative intéressante au GAI-FC comme outil de dépistage lorsque le temps disponible pour l’évaluation est limité. Mots-clés: Geriatric Anxiety Inventory, aînés, anxiété, trouble anxieux, instrument d’évaluation.
Resumo:
Dans la région de Trois-Rivières (Québec, Canada), plus de 1 000 bâtiments résidentiels et commerciaux montrent de graves problèmes de détérioration du béton. Les problèmes de détérioration sont liés à l’oxydation des sulfures de fer incorporés dans le granulat utilisé pour la confection du béton. Ce projet de doctorat vise à mieux comprendre les mécanismes responsables de la détérioration de béton incorporant des granulats contenant des sulfures de fer, et ce afin de développer une méthodologie pour évaluer efficacement la réactivité potentielle de ce type de granulats. Un examen pétrographique détaillé de carottes de béton extraites de fondations résidentielles montrant différents degré d’endommagement a été réalisé. Le granulat problématique contenant des sulfures de fer a été identifié comme un gabbro à hypersthène incorporant différentes proportions (selon les différentes localisations dans les deux carrières d’origine) de pyrrhotite, pyrite, chalcopyrite et pentlandite. Les produits de réaction secondaires observés dans les échantillons dégradés comprennent des formes minérales de "rouille", gypse, ettringite et thaumasite. Ces observations ont permis de déterminer qu’en présence d’eau et d’oxygène, la pyrrhotite s’oxyde pour former des oxyhydroxides de fer et de l’acide sulfurique qui provoquent une attaque aux sulfates dans le béton. Tout d’abord, la fiabilité de l’approche chimique proposée dans la norme européenne NF EN 12 620, qui consiste à mesurer la teneur en soufre total (ST,% en masse) dans le granulat pour détecter la présence (ou non) de sulfures de fer, a été évaluée de façon critique. Environ 50% (21/43) des granulats testés, représentant une variété de types de roches/lithologies, a montré une ST > 0,10%, montrant qu’une proportion importante de types de roches ne contient pas une quantité notable de sulfure, qui, pour la plupart d’entre eux, sont susceptibles d’être inoffensifs dans le béton. Ces types de roches/granulats nécessiteraient toutefois d’autres tests pour identifier la présence potentielle de pyrrhotite compte tenu de la limite de ST de 0,10 % proposée dans les normes européennes. Basé sur une revue exhaustive de la littérature et de nombreuses analyses de laboratoire, un test accéléré d’expansion sur barres de mortier divisé en deux phases a ensuite été développé pour reproduire, en laboratoire, les mécanismes de détérioration observés à Trois-Rivières. Le test consiste en un conditionnement de 90 jours à 80°C/80% RH, avec 2 cycles de mouillage de trois heures chacun, par semaine, dans une solution d’hypochlorite de sodium (eau de javel) à 6% (Phase I), suivi d’une période pouvant atteindre 90 jours de conditionnement à 4°C/100 % HR (Phase II). Les granulats ayant un potentiel d’oxydation ont présenté une expansion de 0,10 % au cours de la Phase I, tandis que la formation potentielle de thaumasite est détectée par le regain rapide de l’expansion suivi par la destruction des échantillons durant la Phase II. Un test de consommation d’oxygène a également été modifié à partir d’un test de Drainage Minier Acide, afin d’évaluer quantitativement le potentiel d’oxydation des sulfures de fer incorporés dans les granulats à béton. Cette technique mesure le taux de consommation d’oxygène dans la partie supérieure d’un cylindre fermé contenant une couche de matériau compacté afin de déterminer son potentiel d’oxydation. Des paramètres optimisés pour évaluer le potentiel d’oxydation des granulats comprennent une taille de particule inférieure à 150 μm, saturation à 40 %, un rapport de 10 cm d’épaisseur de granulat par 10 cm de dégagement et trois heures d’essai à 22ᵒC. Les résultats obtenus montrent que le test est capable de discriminer les granulats contenant des sulfures de fer des granulats de contrôle (sans sulfures de fer) avec un seuil limite fixé à 5% d’oxygène consommé. Finalement, un protocole d’évaluation capable d’estimer les effets néfastes potentiels des granulats à béton incorporant des sulfures de fer a été proposé. Le protocole est divisé en 3 grandes phases: (1) mesure de la teneur en soufre total, (2) évaluation de la consommation d’oxygène, et (3) un test accéléré d’expansion sur barres de mortier. Des limites provisoires sont proposées pour chaque phase du protocole, qui doivent être encore validées par la mise à l’essai d’un plus large éventail de granulats.
Resumo:
Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace.
Resumo:
Les déficits cognitifs sont centraux à la psychose et sont observables plusieurs années avant le premier épisode psychotique. L’atteinte de la mémoire épisodique est fréquemment identifiée comme une des plus sévères, tant chez les patients qu’avant l’apparition de la pathologie chez des populations à risque. Chez les patients psychotiques, l’étude neuropsychologique des processus mnésiques a permis de mieux comprendre l’origine de cette atteinte. Une altération des processus de mémoire de source qui permettent d’associer un souvenir à son origine a ainsi été identifiée et a été associée aux symptômes positifs de psychose, principalement aux hallucinations. La mémoire de source de même que la présence de symptômes sous-cliniques n’ont pourtant jamais été investiguées avant l’apparition de la maladie chez une population à haut risque génétique de psychose (HRG). Or, leur étude permettrait de voir si les déficits en mémoire de source de même que le vécu d’expériences hallucinatoires sont associés à l’apparition de la psychose ou s’ils en précèdent l’émergence, constituant alors des indicateurs précoces de pathologie. Afin d’étudier cette question, trois principaux objectifs ont été poursuivis par la présente thèse : 1) caractériser le fonctionnement de la mémoire de source chez une population HRG afin d’observer si une atteinte de ce processus précède l’apparition de la maladie, 2) évaluer si des manifestations sous-cliniques de symptômes psychotiques, soit les expériences hallucinatoires, sont identifiables chez une population à risque et 3) investiguer si un lien est présent entre le fonctionnement en mémoire de source et la symptomatologie sous-clinique chez une population à risque, à l’instar de ce qui est documenté chez les patients. Les résultats de la thèse ont permis de démontrer que les HRG présentent une atteinte de la mémoire de source ciblée à l’attribution du contexte temporel des souvenirs, ainsi que des distorsions mnésiques qui se manifestent par une fragmentation des souvenirs et par une défaillance de la métacognition en mémoire. Il a également été observé que les expériences hallucinatoires sous-cliniques étaient plus fréquentes chez les HRG. Des associations ont été documentées entre certaines distorsions en mémoire et la propension à halluciner. Ces résultats permettent d’identifier de nouveaux indicateurs cliniques et cognitifs du risque de développer une psychose et permettent de soulever des hypothèses liant l’attribution de la source interne-externe de l’information et le développement de la maladie. Les implications empiriques, théoriques, méthodologiques et cliniques de la thèse sont discutées.
Resumo:
Manger est un geste davantage relié aux sensations plutôt qu’aux cognitions. Les ateliers Les aventuriers du goût constituent l’objet de cette évaluation qui cible les enfants âgés de 5 à 7 ans en milieu scolaire dans la région de Sherbrooke. Les objectifs de l’étude sont de décrire 1) les effets des ateliers sur la reconnaissance des aliments, l’envie de goûter et le comportement alimentaire quant à la diversité du choix alimentaire, et de décrire 2) le comportement alimentaire des enfants tel que perçu par leurs parents. Un devis mixte d’évaluation comportant des observations faites avant et après les ateliers avec groupe témoin a été utilisé. Il en ressort que les ateliers ont favorisé la reconnaissance des aliments et l’attitude envers l’envie de goûter à de nouveaux aliments. L’éveil sensoriel au goût semble une avenue prometteuse pour favoriser la reconnaissance d’aliments, encourager la diversité ainsi que l’acquisition de saines habitudes alimentaires.
Resumo:
L’étude porte sur les retombées économiques de la mine de Voisey’s Bay sur les conditions socioéconomiques des communautés de Rigolet, Makkovik, Hopedale, Nain et de Postville. Elle adopte une approche multidimensionnelle à la fois descriptive et comparative. Les données utilisées proviennent des recensements de la population de 1991, 1996, 2001 et de 2006 conduits par Statistique Canada. Elle utilise aussi les données de l’Enquête nationale auprès des ménages de 2011. Les données internes à la mine proviennent des Rapports de responsabilités sociales de la firme VBNC qui se charge d’exploiter la mine. Nous avons également en recours aux données des rapports du Gouvernement du Nunatsiavut depuis sa mise en place en 2005. Cette étude s’inscrit dans un contexte d’exploitation des ressources naturelles. Elle montre que, contrairement à des considérations voulant que celles-ci constituent une source de richesses, leurs effets sur les conditions socioéconomiques des communautés locales restent mitigés. Les firmes minières s’acharnent à maximiser leurs profits et les conditions de vie des communautés locales n’en bénéficient que partiellement. Pour notre étude, nous faisons l’hypothèse que cette mine ait eu de nombreuses retombées directes ou indirectes (emplois, achats de biens et services, taxes minières, investissements et redevances) et que celles-ci ont modifié les conditions de vie des communautés concernées. Nous avons opté pour une méthodologie basée sur un modèle de retombées économiques de la mine de Voisey’s Bay; un outil conçu avec l’inspiration de la grille d’évaluation des projets miniers, gaziers et pétroliers sur les conditions socioéconomiques de Paul Kishchuk. Ce modèle nous a permis d’analyser les effets de Voisey’s Bay sur la démographie, le marché du travail, la scolarité, le revenu et le logement. Les dimensions identifiées font état d’une légère amélioration sur les conditions de vie des communautés, bien que l’effet ne puisse pas être totalement attribué à la mine, étant donné le rôle important joué par le Gouvernement du Nunatsiavut depuis sa création.
Resumo:
Les préhenseurs robotiques sont largement utilisés en industrie et leur déploiement pourrait être encore plus important si ces derniers étaient plus intelligents. En leur conférant des capacités tactiles et une intelligence leur permettant d’estimer la pose d’un objet saisi, une plus vaste gamme de tâches pourraient être accomplies par les robots. Ce mémoire présente le développement d’algorithmes d’estimation de la pose d’objets saisis par un préhenseur robotique. Des algorithmes ont été développés pour trois systèmes robotisés différents, mais pour les mêmes considérations. Effectivement, pour les trois systèmes la pose est estimée uniquement à partir d’une saisie d’objet, de données tactiles et de la configuration du préhenseur. Pour chaque système, la performance atteignable pour le système minimaliste étudié est évaluée. Dans ce mémoire, les concepts généraux sur l’estimation de la pose sont d’abord exposés. Ensuite, un préhenseur plan à deux doigts comprenant deux phalanges chacun est modélisé dans un environnement de simulation et un algorithme permettant d’estimer la pose d’un objet saisi par le préhenseur est décrit. Cet algorithme est basé sur les arbres d’interprétation et l’algorithme de RANSAC. Par la suite, un système expérimental plan comprenant une phalange supplémentaire par doigt est modélisé et étudié pour le développement d’un algorithme approprié d’estimation de la pose. Les principes de ce dernier sont similaires au premier algorithme, mais les capteurs compris dans le système sont moins précis et des adaptations et améliorations ont dû être appliquées. Entre autres, les mesures des capteurs ont été mieux exploitées. Finalement, un système expérimental spatial composé de trois doigts comprenant trois phalanges chacun est étudié. Suite à la modélisation, l’algorithme développé pour ce système complexe est présenté. Des hypothèses partiellement aléatoires sont générées, complétées, puis évaluées. L’étape d’évaluation fait notamment appel à l’algorithme de Levenberg-Marquardt.
Resumo:
Après une période où la valeur des quotas laitiers a été en forte croissance au Québec, un plafond à cette valeur a été fixé à compter de 2007. Ce plafond a eu pour effet de limiter l’offre de quota sur le marché et la croissance de la taille des entreprises laitières québécoises. Cette situation soulève un questionnement sur l’efficience économique, le blocage de la croissance des entreprises les empêchant de bénéficier d’économies de taille, si bien entendu il en existe. En conséquence, cette étude s’intéresse aux économies de taille en production laitière en Amérique du Nord. Les économies de taille des entreprises ont été mesurées à l’aide d’une régression linéaire multiple à partir de certains indicateurs de coût monétaire et non monétaire. Cette analyse comprend quatre strates de taille formées à partir d’un échantillon non aléatoire de 847 entreprises du Québec, de l’État de New York et de la Californie, ainsi qu’à partir d’un groupe d’entreprises efficientes (groupe de tête). Les résultats démontrent l’existence d’économies de taille principalement au niveau des coûts fixes et plus particulièrement des coûts fixes non monétaires. Ils révèlent aussi que les deux indicateurs où l’effet des économies de taille est le plus important sont le coût du travail non rémunéré et l’amortissement. Par ailleurs, lorsque la taille d’une entreprise augmente, les économies de taille supplémentaires réalisées deviennent de moins en moins importantes. Enfin, les résultats indiquent qu’il existe des déséconomies de taille au niveau des coûts d’alimentation. Les résultats obtenus au niveau du groupe de tête vont dans le même sens. Ils confirment également qu’il est possible pour les grandes entreprises efficientes de réaliser des économies de taille pour la plupart des indicateurs de coût. Toutefois, les économies additionnelles que ces entreprises peuvent réaliser sont moins importantes que celles obtenues par les petites entreprises efficientes. Mots clés : Agriculture, production laitière, Amérique du Nord, économies de taille, efficience économique, régression linéaire.
Resumo:
Le contexte de ce projet de recherche est celui de la stabilité des barrages-poids et aborde le besoin d’évaluation de la résistance de l’interface béton-rocher. Puisqu’il est techniquement difficile d’évaluer si l’interface est liée ou non, la cohésion réelle et sa contribution à la résistance au cisaillement sont souvent négligées et ce sujet précis est peu abordé dans la littérature. Un lien direct peut être fait entre cette non-considération et des travaux de stabilisation réalisés sur des ouvrages hydrauliques. Cette étude a comme objectif la caractérisation de la cohésion réelle dans le but de déterminer s’il est sécuritaire d’incorporer sa contribution dans l’évaluation de stabilité des barrages-poids. Pour ce faire, il est nécessaire d’évaluer les comportements en traction et en cisaillement de l’interface et d’analyser comment ils sont affectés par des paramètres importants telle la rugosité de l’interface. Cette caractérisation est faite à l’aide d’un programme expérimental sur 66 répliques d’interfaces béton-rocher en mortier. La rugosité est évaluée à l’aide d’un profilomètre laser et du paramètre Z2. Les répliques ont fait l’objet d’essais de traction directe, de traction par pression de fluide et de cisaillement direct. L’influence de la rugosité d’interface et de la résistance à la compression uniaxiale (UCS) des matériaux sur les résistances à la traction et au cisaillement est évaluée grâce à l’analyse des variances (ANOVA). Des essais supplémentaires ont permis d’approfondir la compréhension du mécanisme de rupture en cisaillement. Les résultats indiquent une résistance à la traction moyenne de l’interface liée de 0,62 MPa et une cohésion (en cisaillement) moyenne de 3,1 MPa. L’ANOVA montre une augmentation significative de la résistance à la traction avec la rugosité et une augmentation significative de la résistance au cisaillement au pic avec la rugosité, l’UCS et la contrainte normale. Il a aussi été observé que le pas d’échantillonnage a un impact important sur la valeur de Z2. Les résultats suggèrent qu’une valeur minimale de cohésion de 100 à 200 kPa pourrait être utilisée dans la mesure où il peut être démontré que l’interface est liée. Cette condition pourrait d’ailleurs constituer un sujet de recherche s’inscrivant dans la continuité des travaux réalisés.
Resumo:
Au Québec, les écoles sont situées dans une région où l’aléa sismique est considéré modéré à élevé. La majorité de ces écoles ont été construites avant les années 70 et comportent de la maçonnerie non armée (MNA) qui est un matériau à ductilité faible. Au cours des séismes passés notamment celui du Saguenay en 1988, il semble que les structures comportant de la MNA constituent le type de structure le plus dangereux vis-à-vis du séisme. La performance sismique de ces écoles est alors mise en question d’autant plus que la plupart ont été construites avant l’introduction des normes parasismiques. Ce projet de recherche traite de la vulnérabilité sismique des écoles comportant de la MNA et s’inscrit à la suite d’un projet d’élaboration d’une procédure de classification des écoles dans l’Est du Canada. Il découle d’une initiative du Réseau Canadien pour la Recherche Parasismique (RCRP) qui vise des procédures d’analyse de ces bâtiments en vue d’un programme de réhabilitation d’écoles, lancé par le Ministère de l’Éducation, des Loisirs et du Sport (MELS). Une procédure à trois niveaux pour l’évaluation de la vulnérabilité sismique des bâtiments dans l’Est du Canada a été élaborée par différents chercheurs de l’Université de Sherbrooke, de l’École de Technologie Supérieure et de l’Université McGill [Nollet et al., 2012]. Partant des conclusions de cette étude et d’une revue de littérature, les efforts de la recherche développeront un niveau d’évaluation sismique complète des écoles types au Québec comportant de la MNA comme murs de remplissage. Les objectifs seront donc de proposer un modèle adéquat du comportement sismique de la MNA issue de la littérature, étudier l’influence de la non linéarité de la MNA sur la réponse dynamique de ces écoles ainsi que l’influence de l’irrégularité en plan sur la réponse dynamique de ces écoles. La démarche comprend le développement des modèles Opensees [Mazzoni et al., 2004] et la modélisation des écoles génériques sur le logiciel OpenSees (l’un des défi majeur du projet), la validation des modèles à partir de valeurs empirique et expérimentale et enfin les analyses modales et temporelles.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
L’objectif principal de cet essai est de définir des facteurs inspirés par le marketing afin de bonifier l’offre des programmes d’éducation de la Société des Établissements de Plein Air du Québec. Plus particulièrement, il s’agit d’introduire des notions de marketing au développement et au suivi de programme d’éducation en matière de promotion de comportements écoresponsables. Trois objectifs secondaires sont poursuivis, soit un portrait du marketing, identification de facteurs influençant l’écoute et l’analyse de programmes existants en fonction de ces facteurs, l’identification des écarts et la proposition de piste d’amélioration. Cet essai présente des notions marketing afin de promouvoir la conservation de la diversité biologique. Il prend en compte les objectifs cités dans la Convention sur la diversité biologique, ainsi que dans le plan d’action de la Société des Établissements de Plein Air du Québec. Il recense des théories marketing pouvant aider cette dernière au niveau stratégique et opérationnel, plus particulièrement pour le Parc National d’Oka. Les théories marketing étudiées sont la segmentation, l’analyse forces, faiblesses, opportunités et menaces, la stratégie marketing, le marketing sociétal et le marketing de la diversité biologique. La revue de littérature présentée dans cet essai a permis de cibler quatre moyens de promouvoir les gestes écoresponsables des visiteurs. Ces approches issues de recherche marketing sont les suivantes : l’approche comportementale, la théorie du cadrage, le modèle transthéorique du changement et la théorie de l’autodétermination. Les théories et approches marketing issues de recherche marketing sont incluses dans la grille d’évaluation. Cette grille permet à l’utilisateur d’analyser l’activité proposée en fonction des outils marketing présentés et d’identifier les gestes écoresponsables à promouvoir. Trois activités et un guide du visiteur du Parc National d’Oka sont analysés. Les résultats montrent que les activités actuelles n’incluent pas la promotion de gestes écoresponsables, mais que ces derniers pourraient être facilement intégrés à l’aide d’une des approches. Les résultats de l’analyse du guide incluent un message visant la modification de comportement, mais le message des gestes écoresponsables pourrait être modifié afin de le rendre plus efficace, et ce, en fonction d’une des quatre approches. La Sépaq devrait s'intéresser davantage à l’utilisation de stratégies de marketing de la diversité biologique et offrir des guides aux parcs pour bonifier la portée de ses activés de façon à contribuer aux stratégies nationales de conservation de la diversité biologique,) promouvoir l’importance des aires protégées et expliquer le rôle important qu’elles jouent dans la conservation, recenser ses efforts et activement poursuivre les objectifs de la stratégie provinciale sur la conservation de la diversité biologique et du développement durable. L’exploration de méthodes marketing pourrait aider à obtenir un changement de comportements écoresponsables et faciliter la promotion de la conservation. La Sépaq devrait également réaliser ou encourager de telles études et effectuer une veille stratégique.