92 resultados para Pratique basée sur des résultats probants

em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les changements climatiques observés depuis les dernières années semblent avoir un impact sur la distribution et l’abondance des espèces dans plusieurs régions du monde. Cette évolution du climat peut représenter un risque pour la survie de certaines espèces car elle peut impliquer leur migration vers une niche écologique leur étant plus favorable. Ce déplacement est possible si l’espèce possède une forte capacité de dispersion et si le territoire sur lequel elle se déplace n’est pas fragmenté. La modélisation de la distribution d’espèces et de niches écologiques, prenant en compte l’évolution des variables environnementales, permet de connaître la distribution potentielle des espèces à la période actuelle et à des périodes futures selon différents scénarios. Au Québec, ces modélisations de distributions de niches écologiques potentielles constituent une source d’information très utile pour les gestionnaires du territoire, en particulier des aires protégées. Ces données permettent notamment d’anticiper la migration des espèces, influencée par les changements climatiques, afin d’identifier les défis de conservation à venir et de poser une réflexion sur le rôle des aires protégées dans ce contexte. L’objectif général de cet essai vise à étudier la migration potentielle des niches écologiques liée aux changements climatiques sur le territoire des parcs nationaux de Frontenac, du Mont-Mégantic et de leur périphérie. Les changements de répartition et de richesse spécifique de plus de 600 niches écologiques dans ce secteur ont été étudiés ainsi que leur implication en lien avec la fragmentation du territoire. Deux échelles de travail (locale et régionale) ont été considérées et des indices spatiaux de changement de répartition et de diversité des niches écologiques ont été calculés pour ces deux échelles de travail, selon deux modes de dispersion (absence de dispersion et dispersion illimitée) et deux horizons futurs (2050 et 2080). Ces indices ont révélé majoritairement une augmentation des niches écologiques apparaissant sur le territoire et une hausse de la diversité de niches écologiques sur l’ensemble du territoire en cas de dispersion illimitée, phénomène accentué à l’horizon 2080. Par contre, en cas d’absence de dispersion, une disparition importante de niches écologiques ainsi qu’une perte de diversité sont à anticiper sur le territoire, phénomène également accentué à l’horizon 2080. L’étude de la fragmentation révèle un territoire relativement fragmenté par les routes, mais présentant majoritairement une faible résistance au déplacement des espèces, malgré la présence de quelques pôles urbains de moyenne importance. Cette étude se base sur des résultats de modélisation de niches écologiques déjà effectués pour l’ensemble du Québec et pourrait ainsi être appliquée à d’autres territoires. Les résultats montrent d’importants changements à venir et les gestionnaires et scientifiques travaillant sur ce territoire pourront utiliser les résultats obtenus pour réfléchir à la mise en place de mesures adaptées aux déplacements potentiels.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le dimensionnement basé sur la performance (DBP), dans une approche déterministe, caractérise les objectifs de performance par rapport aux niveaux de performance souhaités. Les objectifs de performance sont alors associés à l'état d'endommagement et au niveau de risque sismique établis. Malgré cette approche rationnelle, son application est encore difficile. De ce fait, des outils fiables pour la capture de l'évolution, de la distribution et de la quantification de l'endommagement sont nécessaires. De plus, tous les phénomènes liés à la non-linéarité (matériaux et déformations) doivent également être pris en considération. Ainsi, cette recherche montre comment la mécanique de l'endommagement pourrait contribuer à résoudre cette problématique avec une adaptation de la théorie du champ de compression modifiée et d'autres théories complémentaires. La formulation proposée adaptée pour des charges monotones, cycliques et de type pushover permet de considérer les effets non linéaires liés au cisaillement couplé avec les mécanismes de flexion et de charge axiale. Cette formulation est spécialement appliquée à l'analyse non linéaire des éléments structuraux en béton soumis aux effets de cisaillement non égligeables. Cette nouvelle approche mise en œuvre dans EfiCoS (programme d'éléments finis basé sur la mécanique de l'endommagement), y compris les critères de modélisation, sont également présentés ici. Des calibrations de cette nouvelle approche en comparant les prédictions avec des données expérimentales ont été réalisées pour les murs de refend en béton armé ainsi que pour des poutres et des piliers de pont où les effets de cisaillement doivent être pris en considération. Cette nouvelle version améliorée du logiciel EFiCoS a démontrée être capable d'évaluer avec précision les paramètres associés à la performance globale tels que les déplacements, la résistance du système, les effets liés à la réponse cyclique et la quantification, l'évolution et la distribution de l'endommagement. Des résultats remarquables ont également été obtenus en référence à la détection appropriée des états limites d'ingénierie tels que la fissuration, les déformations unitaires, l'éclatement de l'enrobage, l'écrasement du noyau, la plastification locale des barres d'armature et la dégradation du système, entre autres. Comme un outil pratique d'application du DBP, des relations entre les indices d'endommagement prédits et les niveaux de performance ont été obtenus et exprimés sous forme de graphiques et de tableaux. Ces graphiques ont été développés en fonction du déplacement relatif et de la ductilité de déplacement. Un tableau particulier a été développé pour relier les états limites d'ingénierie, l'endommagement, le déplacement relatif et les niveaux de performance traditionnels. Les résultats ont démontré une excellente correspondance avec les données expérimentales, faisant de la formulation proposée et de la nouvelle version d'EfiCoS des outils puissants pour l'application de la méthodologie du DBP, dans une approche déterministe.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche porte sur le thème de l’évaluation de programmes dans le réseau collégial et les défis qu’elle soulève en regard de son utilité. Plus précisément, nous abordons les difficultés posées par l’évaluation des programmes au Cégep de Saint-Jérôme et proposons une nouvelle approche permettant d’augmenter l’utilité de ce processus pour le personnel enseignant. Notre problématique s’articule principalement autour du fait que l’évaluation de programmes a été vécue par plusieurs membres du personnel enseignant comme une opération administrative, voire comme une opération de reddition de comptes. En lien avec l’adoption en 2008 d’une nouvelle politique institutionnelle d’évaluation des programmes (PIEP) au Cégep de Saint-Jérôme, nous montrons les limites du processus et des instruments d’évaluation de programmes associés. Nous nous concentrons ensuite sur les stratégies d’évaluation des apprentissages puisqu’elles constituent un aspect essentiel de l’évaluation des programmes et un levier important de changement en vue d’améliorer la qualité de leur mise en oeuvre. Notre question de recherche est la suivante: comment peut-on augmenter l’utilité de l’évaluation des programmes pour les enseignantes et les enseignants du Cégep de Saint-Jérôme? Notre cadre de référence dresse une présentation générale de l’évaluation de programmes, mais repose sur une approche de l’évaluation axée sur l’utilisation. Celle-ci s’avérait tout à fait pertinente compte tenu de notre question de recherche. La recension des écrits nous a permis d’élaborer un cadre d’intervention, à partir des travaux de Michael Quinn Patton, Jean A. King et Hallie Preskill. Notre cadre d’intervention circonscrit une démarche d’évaluation de programmes qui repose sur quatre critères d’utilité: le facteur personnel, l’utilisation attendue, la participation active et le renforcement des capacités en évaluation. De plus, il confère à la conseillère pédagogique, qui est aussi la chercheure, une posture d’accompagnement, définie à travers quatre rôles: consultante, animatrice, négociatrice et formatrice. Cette recherche poursuivait trois objectifs: utiliser concrètement notre cadre d’intervention dans l’évaluation d’un programme au Cégep de Saint-Jérôme, accompagner le personnel enseignant suivant un scénario découlant de notre cadre d’intervention et valider notre cadre d’intervention. Nos objectifs de recherche nécessitaient une méthodologie appropriée. Celle-ci repose sur une approche méthodologique qualitative, une posture épistémologique critique et un essai de type recherche intervention. Neuf participantes et participants ont pris part à la démarche d’évaluation de programmes que nous leur avons proposée. Les données ont été recueillies grâce à la technique de l’observation participante et la triangulation des méthodes de collecte de données a été utilisée afin d’assurer la rigueur de nos travaux. L’analyse de contenu nous a permis d’étudier les données recueillies au moyen d’une grille d’analyse élaborée à partir de catégories émergentes et d’autres issues de notre cadre de référence. La dimension éthique a également été au coeur de la collecte et de l’analyse de nos données. Nous avons d’ailleurs pris plusieurs précautions à cet effet. Les données obtenues nous ont permis de répondre à notre question de recherche en démontrant en quoi la démarche d’évaluation de programmes réalisée par nos participantes et nos participants a contribué à augmenter l’utilité de celle-ci pour le personnel enseignant, telle que définie dans notre cadre de référence. Cette démarche a permis au personnel enseignant d’augmenter sa participation et son intérêt à l’égard de l’évaluation de programmes ainsi que d’utiliser concrètement à court terme les résultats obtenus pour améliorer ses pratiques d’évaluation des apprentissages. Deux niveaux de participation ont été expérimentés. Dans le niveau le plus élevé, une partie des participantes et des participants a été regroupée au sein d’un groupe de travail, lequel a contribué à l’élaboration d’une grille d’analyse portant sur les stratégies d’évaluation des apprentissages. Cette grille a par la suite été expérimentée par l’ensemble des participantes et participants sur un échantillon de onze cours du programme pour lesquels elles et ils ont procédé à l’autoévaluation de leur propre matériel (copies d’examens, copies de grille d’évaluation, etc.). Un rapport d’évaluation a été produit à partir des grilles d’analyse complétées. Les données obtenues nous ont également permis de valider notre cadre d’intervention et de dégager plusieurs éléments facilitant la transférabilité des résultats obtenus. Nous pensons d’ailleurs que celui-ci constitue une avenue pertinente et utile pour le réseau collégial puisqu’il favorise l’utilisation des résultats à court terme par le personnel enseignant, développe la pensée évaluative du personnel enseignant et parce qu’il augmente la qualité et l’efficacité du processus. De plus, le modèle d’accompagnement du personnel enseignant que nous avons élaboré et expérimenté contribue à dépasser une approche basée sur la reddition de comptes ou la gestion administrative des programmes. À tout le moins, il s’agit d’une piste intéressante pour les conseillères et les conseillers pédagogiques qui ont à intervenir comme nous dans ce dossier.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’anorexie mentale et l’anorexie mentale atypique sont des problématiques de santé mentale qui affectent une portion non négligeable de la population. Toutefois, encore très peu d’études ont permis de démontrer l’efficacité des traitements pour ces troubles. L’évolution des connaissances dans les modèles explicatifs de l’anorexie oriente vers des processus psychologiques à cibler dans le traitement différents de ceux des thérapies conventionnelles. La présente étude vise à évaluer l’efficacité de la thérapie d’acceptation et d’engagement (ACT) sous forme d’un manuel d’auto-traitement appliqué à une population souffrant d’anorexie mentale ou d’anorexie mentale atypique. Un protocole expérimental à cas unique à niveaux de base multiples a été utilisé. Quatre femmes francophones présentant un de ces deux diagnostics ont reçu le traitement sur une durée de 13 semaines. Les résultats démontrent que les niveaux quotidiens d’actions pour maîtriser le poids et de préoccupations par rapport au poids et à la nourriture ont diminué suite au traitement. Le traitement a aussi permis aux participantes de passer d’un diagnostic de sévérité clinique à un en rémission partielle. La sévérité des symptômes de trouble alimentaire a aussi diminué suite au traitement et la flexibilité de l’image corporelle des participantes a augmenté, et ce de manières cliniquement significatives. Des processus propres à l’intervention ACT sont avancés pour rendre compte des effets observés.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pour modéliser un vecteur aléatoire en présence d'une co-variable, on peut d'abord faire appel à la fonction de répartition conditionnelle. En effet, cette dernière contient toute l'information ayant trait au comportement du vecteur étant donné une valeur prise par la co-variable. Il peut aussi être commode de séparer l'étude du comportement conjoint du vecteur de celle du comportement individuel de chacune de ses composantes. Pour ce faire, on utilise la copule conditionnelle, qui caractérise complètement la dépendance conditionnelle régissant les différentes associations entre les variables. Dans chacun des cas, la mise en oeuvre d'une stratégie d'estimation et d'inférence s'avère une étape essentielle à leur utilisant en pratique. Lorsqu'aucune information n'est disponible a priori quant à un choix éventuel de modèle, il devient pertinent d'opter pour des méthodes non-paramétriques. Le premier article de cette thèse, co-écrit par Jean-François Quessy et moi-même, propose une façon de ré-échantillonner des estimateurs non-paramétriques pour des distributions conditionnelles. Cet article a été publié dans la revue Statistics and Computing. En autres choses, nous y montrons comment obtenir des intervalles de confiance pour des statistiques s'écrivant en terme de la fonction de répartition conditionnelle. Le second article de cette thèse, co-écrit par Taoufik Bouezmarni, Jean-François Quessy et moi-même, s'affaire à étudier deux estimateurs non-paramétriques de la copule conditionnelles, proposés par Gijbels et coll. en présence de données sérielles. Cet article a été soumis dans la revue Statistics and Probability Letters. Nous identifions la distribution asymptotique de chacun de ces estimateurs pour des données mélangeantes. Le troisième article de cette thèse, co-écrit par Taoufik Bouezmarni, Jean-François Quessy et moi-même, propose une nouvelle façon d'étudier les relations de causalité entre deux séries chronologiques. Cet article a été soumis dans la revue Electronic Journal of Statistics. Dans cet article, nous utilisons la copule conditionnelle pour caractériser une version locale de la causalité au sens de Granger. Puis, nous proposons des mesures de causalité basées sur la copule conditionnelle. Le quatrième article de cette thèse, co-écrit par Taoufik Bouezmarni, Anouar El Ghouch et moi-même, propose une méthode qui permette d'estimer adéquatement la copule conditionnelle en présence de données incomplètes. Cet article a été soumis dans la revue Scandinavian Journal of Statistics. Les propriétés asymptotiques de l'estimateur proposé y sont aussi étudiées. Finalement, la dernière partie de cette thèse contient un travail inédit, qui porte sur la mise en oeuvre de tests statistiques permettant de déterminer si deux copules conditionnelles sont concordantes. En plus d'y présenter des résultats originaux, cette étude illustre l'utilité des techniques de ré-échantillonnage développées dans notre premier article.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La sécurité des systèmes de transports intelligents est au centre de tous les débats. Afin de s’assurer un fonctionnement sécuritaire, il est nécessaire de pouvoir vérifier le bon fonctionnement des capteurs permettant d’avoir une parfaite connaissance de l’environnement et de l’état du véhicule. Cette thèse présente une nouvelle solution de détection et d’identification de faute pouvant apparaitre sur les capteurs embarqués d’un véhicule intelligent. Cette méthode est basée sur la redondance analytique des données, consistant à estimer une même mesure à l’aide de capteurs de différentes natures. Cette mesure subit alors une transformation non linéaire permettant à la fois d’accroitre la sensibilité aux fautes et d’être plus robuste aux bruits. Cette étude propose plusieurs solutions de transformation et d’estimation qui seront évaluées en simulation avant de proposer une méthode d’optimisation de la prise de décision en fonction de critères choisis par l’utilisateur. La description de l’architecture, des méthodes employées ainsi que des équations permettant l’établissement de celle-ci seront décrites dans le chapitre 3. L’évaluation en simulation des performances de l’architecture sera effectuée dans le chapitre 4 avant une analyse finale des résultats ainsi qu’une comparaison avec une solution existante dans le dernier chapitre, permettant la validation de notre approche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le thème de cette recherche porte sur des perspectives de stagiaires et d'experts de l'enseignement secondaire sur des situations d'indiscipline. Nous avons d'abord élaboré un contexte théorique. À la lumière de Kounin (1970), Martin (1981), Charles (1981), Charles (1989) et Bournot-Trites (in Safty dir., 1990), nous avons retrouvé une description de huit modèles de discipline. Cependant, le contenu de ces écrits ne fournit pas suffisamment d'information afin de développer le thème de notre recherche. Inspirée par Brophy et Evertson (1976), Moskowitz et Hayman (1976), Saunders (1979), Johnson (1980), Ramsey (1981), Fitzpatrick (1981), Jones et Jones (1981), Me Daniel (1982), Gagné (1985), Melvin (1985), Schloss et Sedlack (1986), Doyle (1986) et Barton et Morrison (1988), nous avons recensé des caractéristiques des maîtres efficaces. Ainsi, la littérature des modèles de discipline et celle des caractéristiques des maîtres efficaces nous ont amenée à définir les objectifs de notre recherche. Cette recherche qualitative exploratoire nous a permis d'interviewer des participants, c'est-à-dire des stagiaires et des maîtres experts de différentes écoles secondaires. Dans un premier temps, nous avons construit notre instrument de recherche qui se définit par des mises en situation (trois situations d'indiscipline) accompagné d'un questionnaire. Cet instrument fut pré-expérimenté dans le but d'en vérifier la validité. Par la suite, cet instrument fut présenté aux participants de notre recherche. Il s'agit principalement de trois stagiaires et de trois maîtres experts. Le contenu des entrevues des participants nous a permis de concevoir un modèle d'analyse appelé un discipli-cube. Ce modèle tridimensionnel comporte des composantes (savoir, savoir-être, savoir-faire), des moments (avant, pendant, après ou indéterminé) et des situations d'indiscipline. C'est donc à partir du discipli-cube que nous avons classé les données des participants. Finalement, les résultats de cette recherche nous conduisent à prétendre que, face à une situation d'indiscipline, les stagiaires interviennent en ayant plutôt recours à leur savoir (connaissances) et avec l'intention de sévir vis-à-vis l'élève ou le groupe alors que les maîtres experts interviennent en se référant davantage au savoir-faire dans le but de fournir de l'aide à l'élève ou au groupe. Ils s'interrogent et prennent le temps de considérer globalement la situation problématique ce qu'omettent de faire les stagiaires. Cette recherche comporte des limites parce que la nature de cette recherche et en particulier la situation de simulation ne permettent pas d'inférer les résultats aux situations d'enseignement réelles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé : Les eaux souterraines ont un impact majeur sur la vie terrestre, les besoins domestiques et le climat. Elles sont aussi un maillon essentiel du cycle hydrologique. Au Canada par exemple, plus de 30 % de la population est tributaire des eaux souterraines pour leur alimentation en eau potable. Ces ressources subissent de nombreuses pressions sous l’influence de certains facteurs comme la salinisation, la contamination et l’épuisement. La variabilité du climat et la demande croissante sur ces ressources imposent l'amélioration de nos connaissances sur les eaux souterraines. L’objectif principal du projet de recherche est d’exploiter les données d’anomalies (TWS) de la mission Gravity Recovery And Climate Experiment (GRACE) pour localiser, quantifier et analyser les variations des eaux souterraines à travers les bassins versants du Bas-Mackenzie, du Saint-Laurent, du Nord-Québec et du Labrador. Il s’agit aussi d’analyser l’influence des cycles d’accumulation et de fonte de neige sur les variations du niveau des eaux souterraines. Pour estimer les variations des eaux souterraines, la connaissance des autres paramètres du bilan hydrologique est nécessaire. Ces paramètres sont estimés à l’aide des sorties du modèles de surface CLM du Système Global d’Assimilation des Données de la Terre (GLDAS). Les données GRACE qui ont été utilisées sont celles acquises durant la période allant de mars 2002 à août 2012. Les résultats ont été évalués à partir d’enregistrements de niveaux piézométriques provenant de 1841 puits localisés dans les aquifères libres du bassin des réseaux de suivi des eaux souterraines au Canada. Les valeurs de rendements spécifiques des différents types d’aquifères de chaque puits et celles des variations mensuelles du niveau d’eau dans ces puits ont été utilisées pour estimer les variations des anomalies des eaux souterraines in-situ. L’étude de corrélation entre les variations des anomalies des eaux souterraines estimées à partir de la combinaison GRACE-GLDAS et celles issues de données in-situ révèle des concordances significatives avec des valeurs de

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’éducation à la paix s’est développée juste après la Deuxième Guerre mondiale, notamment avec la création de l’UNESCO. D’ailleurs, son Acte constitutif commence avec l’énoncé du principe suivant: « Les guerres prenant naissance dans l’esprit des hommes, c’est dans l’esprit des hommes que doivent être élevées les défenses de la paix. » (Unesco, 1945, 2014, p. 5) Après des recherches sur l’idéal de paix et sur les conceptions de l’éducation à la paix, nous avons posé quelques questions: Quelles sont les différentes stratégies d’éducation à la paix formelles, informelles et non formelles mises en place à travers le monde? À partir de l’inventaire des stratégies d’éducation à la paix, quelles sont celles qui participent le plus à l’objectif de construire un artisan de paix en chaque individu, peu importe son âge, sa classe sociale, sa culture et sa société? La recension des écrits a permis de mettre en évidence quelques pratiques: le dialogue pour la réconciliation, l’éducation interculturelle et aux droits humains, la médiation des conflits. Mais on ne relève pas de pratiques d’éducation à la paix basée sur les modèles. C’est pourquoi, nous avons énoncé la question générale de recherche en ces termes: En quoi les vies des figures de paix en tant que modèles de paix peuvent-elles contribuer à l’éducation à la paix? Nous avons mis en relief le lien possible entre le modèle de paix et la pédagogie basée sur le modèle (Gardner, 1999) dans le but de faire de l’éducation à la paix. Puis, nous avons pu poser deux objectifs de recherche: 1. Élaborer un matériel pédagogique à partir de la vie de modèles de paix pour servir à l’éducation à la paix dans des contextes éducatifs non formels; 2. Faire valider le matériel par des experts. Selon la démarche méthodologique de la recherche de développement (Van der Maren, 2014), nous avons élaboré le prototype du matériel pédagogique. Pour cela, nous avons sélectionné cinq modèles de paix: le Mahatma Gandhi, Mère Teresa, Martin Luther King, Wangari Maathai et Cheikh Ahmadou Bamba. Pour chaque modèle, nous avons créé des scénarios pédagogiques et élaboré du matériel d’accompagnement en fonction d’événements marquants dans leurs vies. Sept experts ont évalué le matériel produit et ont fait des suggestions pour l’améliorer. L’analyse de leur évaluation et leurs recommandations nous a permis de rédiger une nouvelle version que nous avons appelée la version validée du matériel. Le matériel pédagogique produit est intitulé La vie de modèles de paix: Outils d’éducation à la paix. La visée de ce matériel est de donner la possibilité à l’être humain d’identifier son potentiel en tant qu’artisan de paix et de l’amener à développer la paix en lui-même afin de semer la paix autour de lui. Les retombées de cette recherche concernent tant la communauté scientifique que la communauté professionnelle. Nous avons développé une approche pédagogique nouvelle pour faire de l’éducation à la paix et avons dégagé ses fondements théoriques, en plus de produire pour des intervenants socioéducatifs un matériel pédagogique qui a fait l’objet d’une évaluation rigoureuse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse s'inscrit dans les préoccupations récentes du système scolaire marocain à l'égard de la qualité de l'éducation. Ces préoccupations consistent à considérer l'enseignement fondamental (le primaire) non seulement comme un lieu pour apprendre à lire, à écrire et à compter pour se préparer aux études ultérieures, mais aussi, et surtout, comme un lieu de formation de qualité pour tous. La recherche s'intéresse particulièrement à la contribution d'une matière scolaire, l'activité scientifique, à cette formation. L'auteur dégage de la problématique que l'exploitation de l'activité scientifique à la formation des élèves nécessite une analyse à trois niveaux. Le premier est celui des enjeux qu'elle véhicule. Le deuxième niveau est celui du statut qu'occupe cette discipline au sein des autres disciplines. Le troisième est celui de l'implication de cette discipline dans des activités d'enseignement-apprentissage qui s'assurent la cohérence du curriculum . Pour explorer les dimensions retenues, l'auteur s'est intéressé aux représentations sociales que les principaux acteurs scolaires, les instituteurs, détiennent à l'égard de chacune d'elles. L'étude menée s'est basée sur des entrevues réalisées auprès de 32 instituteurs marocains.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ville de Sherbrooke a présenté dans son schéma d'aménagement et de développement révisé 2012-2027 son projet d'implanter une ceinture verte sur son territoire. Elle n'a cependant pas défini d'orientations claires quant aux objectifs et à la délimitation de celle-ci. Le but de cet essai est d'alimenter la réflexion des décideurs de la ville de Sherbrooke à ce sujet en présentant des scénarios cartographiques de ceintures vertes. Pour réaliser ces scénarios, une revue de littérature a été effectuée afin de définir le concept de ceinture verte et d’identifier les fonctions remplies par ces ceintures vertes. Parmi ces fonctions, cinq sont priorisées par la Ville de Sherbrooke, soit : contrôler l'étalement urbain, préserver la biodiversité, favoriser l'accès des citoyens à un espace vert, protéger contre les inondations et connecter la ceinture verte avec les corridors écologiques régionaux. Les scénarios cartographiques produits sont basés sur des indicateurs et indices spatiaux aptes à représenter ces fonctions sur le territoire de la municipalité. Ces traitements géomatiques ont permis de créer des cartes représentant les zones de sensibilité du territoire de Sherbrooke pour l'implantation d'une ceinture verte selon ces cinq fonctions prioritaires. Ces traitements ont permis de déterminer que les zones les plus prioritaires pour l’implantation d’une ceinture verte représentent un peu plus de la moitié du territoire de la ville de Sherbrooke. Elles encerclent la trame urbaine tout en incluant quelques îlots en périphérie et le secteur sud-ouest du territoire municipal. L'approche de conception de scénarios de ceinture verte présentée ici est comparée à d’autres approches utilisées au Québec et dans d’autres études sur le sujet. Cette approche multi-fonction est novatrice et constitue un outil précieux pour les responsables municipaux qui souhaitent se doter d'une ceinture verte. Cette démarche est adaptative et le scénario de ceinture verte produit pour la Ville de Sherbrooke pourra être mis à jour selon l’évolution de leur réflexion sur les fonctions prioritaires. Cette démarche est également facilement généralisable à d’autres contextes municipaux.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

[…] Notre recherche aura pour principal intérêt ce second mode d'insertion professionnelle, soit; la création de son travail, communément appelée: l'entrepreneurship. Avant de vous présenter la problématique spécifique de notre étude, il faut voir ce que nous entendons par le terme entrepreneurship. La définition la plus souvent rattachée à celle d'entrepreneur fait état de l'aspect d'entreprise, de risque et d'investissement financier. Le Webster's Third New International Dictionary (1961) définit l'entrepreneur comme: "an organizer of an economy venture, especially one who organizes, owns, manages, and assumes risk of a business". Funk and Wagnall's standard Dictionnary (1958) offre une définition similaire: "one who undertakes to start and conduct an entreprise or business, assuming full control and risk." Le dictionnaire Robert (1982) relie l'entrepreneur à "toute personne qui dirige une entreprise pour son propre compte et qui met en oeuvre les divers facteurs de la production en vue de vendre des produits ou des services..." Dans le cadre de cette recherche, nous traiterons de l'insertion professionnelle par la création de son travail dans un sens beaucoup moins restrictif. La création de son travail englobe évidemment l'entrepreneurship mais également l'artisanship, le bénévolat, le travail contractuel, le travail à la pige, le travail en coopération, le travail subventionné, le travail à temps partiel ou régulier (Dodier, 1987). L'on peut même y rattacher le travail permanent en lien avec le concept d'intrapreneurship. […]