998 resultados para Approche intégrée


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire est essentiellement une revue de littérature critique, comparative et complémentariste de quelques-unes des grandes théories de la révolution. L’auteur cherche, à travers le cas particulier de la révolution, à mieux cerner certains enjeux cruciaux de changements sociaux. Il s’interroge, notamment, sur la nature et l’importance du projet révolutionnaire en relation avec la mobilisation et l’issue révolutionnaire. La majeure partie du mémoire est consacré à la constitution d’un portrait des théories dites « classique », celle de Marx, Moore, Gurr, Tilly, Johnson, Wallace, Brinton, puis celle, originale et méconnue, du religiologue Jean-Jacques Dubois. Après en avoir tiré les thématiques essentielles, l’auteur tente une comparaison critique et discute de la pertinence épistémique de chacun des concepts. Dans une perspective synthétique, il entreprend finalement d’en combler les lacunes en s’intéressant à leurs aspects complémentaires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Contexte & Objectifs : La manométrie perfusée conventionnelle et la manométrie haute résolution (HRM) ont permis le développement d’une variété de paramètres pour mieux comprendre la motilité de l'œsophage et quantifier les caractéristiques de la jonction œsophago-gastrique (JOG). Cependant, l'anatomie de la JOG est complexe et les enregistrements de manométrie détectent à la fois la pression des structures intrinsèques et des structures extrinsèques à l'œsophage. Ces différents composants ont des rôles distincts au niveau de la JOG. Les pressions dominantes ainsi détectées au niveau de la JOG sont attribuables au sphincter œsophagien inférieur (SOI) et aux piliers du diaphragme (CD), mais aucune des technologies manométriques actuelles n’est capable de distinguer ces différents composants de la JOG. Lorsqu’on analyse les caractéristiques de la JOG au repos, celle ci se comporte avant tout comme une barrière antireflux. Les paramètres manométriques les plus couramment utilisés dans ce but sont la longueur de la JOG et le point d’inversion respiratoire (RIP), défini comme le lieu où le pic de la courbe de pression inspiratoire change de positif (dans l’abdomen) à négatif (dans le thorax), lors de la classique manœuvre de « pull-through ». Cependant, l'importance de ces mesures reste marginale comme en témoigne une récente prise de position de l’American Gastroenterology Association Institute (AGAI) (1) qui concluait que « le rôle actuel de la manométrie dans le reflux gastro-œsophagien (RGO) est d'exclure les troubles moteurs comme cause des symptômes présentés par la patient ». Lors de la déglutition, la mesure objective de la relaxation de la JOG est la pression de relaxation intégrée (IRP), qui permet de faire la distinction entre une relaxation normale et une relaxation anormale de la JOG. Toutefois, puisque la HRM utilise des pressions moyennes à chaque niveau de capteurs, certaines études de manométrie laissent suggérer qu’il existe une zone de haute pression persistante au niveau de la JOG même si un transit est mis en évidence en vidéofluoroscopie. Récemment, la manométrie haute résolution « 3D » (3D-HRM) a été développée (Given Imaging, Duluth, GA) avec le potentiel de simplifier l'évaluation de la morphologie et de la physiologie de la JOG. Le segment « 3D » de ce cathéter de HRM permet l'enregistrement de la pression à la fois de façon axiale et radiale tout en maintenant une position fixe de la sonde, et évitant ainsi la manœuvre de « pull-through ». Par conséquent, la 3D-HRM devrait permettre la mesure de paramètres importants de la JOG tels que sa longueur et le RIP. Les données extraites de l'enregistrement fait par 3D-HRM permettraient également de différencier les signaux de pression attribuables au SOI des éléments qui l’entourent. De plus, l’enregistrement des pressions de façon radiaire permettrait d’enregistrer la pression minimale de chaque niveau de capteurs et devrait corriger cette zone de haute pression parfois persistante lors la déglutition. Ainsi, les objectifs de ce travail étaient: 1) de décrire la morphologie de la JOG au repos en tant que barrière antireflux, en comparant les mesures effectuées avec la 3D-HRM en temps réel, par rapport à celle simulées lors d’une manœuvre de « pull-through » et de déterminer quelles sont les signatures des pressions attribuables au SOI et au diaphragme; 2) d’évaluer la relaxation de la JOG pendant la déglutition en testant l'hypothèse selon laquelle la 3D-HRM permet le développement d’un nouveau paradigme (appelé « 3D eSleeve ») pour le calcul de l’IRP, fondé sur l’utilisation de la pression radiale minimale à chaque niveau de capteur de pression le long de la JOG. Ce nouveau paradigme sera comparé à une étude de transit en vidéofluoroscopie pour évaluer le gradient de pression à travers la JOG. Méthodes : Nous avons utilisé un cathéter 3D-HRM, qui incorpore un segment dit « 3D » de 9 cm au sein d’un cathéter HRM par ailleurs standard. Le segment 3D est composé de 12 niveaux (espacés de 7.5mm) de 8 capteurs de pression disposés radialement, soit un total de 96 capteurs. Neuf volontaires ont été étudiés au repos, où des enregistrements ont été effectués en temps réel et pendant une manœuvre de « pull-through » du segment 3D (mobilisation successive du cathéter de 5 mm, pour que le segment 3D se déplace le long de la JOG). Les mesures de la longueur du SOI et la détermination du RIP ont été réalisées. La longueur de la JOG a été mesurée lors du « pull-through » en utilisant 4 capteurs du segment 3D dispersés radialement et les marges de la JOG ont été définies par une augmentation de la pression de 2 mmHg par rapport à la pression gastrique ou de l’œsophage. Pour le calcul en temps réel, les limites distale et proximale de la JOG ont été définies par une augmentation de pression circonférentielle de 2 mmHg par rapport à la pression de l'estomac. Le RIP a été déterminée, A) dans le mode de tracé conventionnel avec la méthode du « pull-through » [le RIP est la valeur moyenne de 4 mesures] et B) en position fixe, dans le mode de représentation topographique de la pression de l’œsophage, en utilisant l’outil logiciel pour déterminer le point d'inversion de la pression (PIP). Pour l'étude de la relaxation de la JOG lors de la déglutition, 25 volontaires ont été étudiés et ont subi 3 études de manométrie (10 déglutitions de 5ml d’eau) en position couchée avec un cathéter HRM standard et un cathéter 3D-HRM. Avec la 3D-HRM, l’analyse a été effectuée une fois avec le segment 3D et une fois avec une partie non 3D du cathéter (capteurs standard de HRM). Ainsi, pour chaque individu, l'IRP a été calculée de quatre façons: 1) avec la méthode conventionnelle en utilisant le cathéter HRM standard, 2) avec la méthode conventionnelle en utilisant le segment standard du cathéter 3D-HRM, 3) avec la méthode conventionnelle en utilisant le segment « 3D » du cathéter 3D-HRM, et 4) avec le nouveau paradigme (3D eSleeve) qui recueille la pression minimale de chaque niveau de capteurs (segment 3D). Quatorze autres sujets ont subi une vidéofluoroscopie simultanée à l’étude de manométrie avec le cathéter 3D-HRM. Les données de pression ont été exportés vers MATLAB ™ et quatre pressions ont été mesurées simultanément : 1) la pression du corps de l’œsophage, 2cm au-dessus de la JOG, 2) la pression intragastrique, 3) la pression radiale moyenne de la JOG (pression du eSleeve) et 4) la pression de la JOG en utilisant la pression minimale de chaque niveau de capteurs (pression du 3D eSleeve). Ces données ont permis de déterminer le temps permissif d'écoulement du bolus (FPT), caractérisé par la période au cours de laquelle un gradient de pression existe à travers la JOG (pression œsophagienne > pression de relaxation de la JOG > pression gastrique). La présence ou l'absence du bolus en vidéofluoroscopie et le FPT ont été codés avec des valeurs dichotomiques pour chaque période de 0,1 s. Nous avons alors calculé la sensibilité et la spécificité correspondant à la valeur du FPT pour la pression du eSleeve et pour la pression du 3D eSleeve, avec la vidéofluoroscopie pour référence. Résultats : Les enregistrements avec la 3D-HRM laissent suggérer que la longueur du sphincter évaluée avec la méthode du « pull-through » était grandement exagéré en incorporant dans la mesure du SOI les signaux de pression extrinsèques à l’œsophage, asymétriques et attribuables aux piliers du diaphragme et aux structures vasculaires. L’enregistrement en temps réel a permis de constater que les principaux constituants de la pression de la JOG au repos étaient attribuables au diaphragme. L’IRP calculé avec le nouveau paradigme 3D eSleeve était significativement inférieur à tous les autres calculs d'IRP avec une limite supérieure de la normale de 12 mmHg contre 17 mmHg pour l’IRP calculé avec la HRM standard. La sensibilité (0,78) et la spécificité (0,88) du 3D eSleeve étaient meilleurs que le eSleeve standard (0,55 et 0,85 respectivement) pour prédire le FPT par rapport à la vidéofluoroscopie. Discussion et conclusion : Nos observations suggèrent que la 3D-HRM permet l'enregistrement en temps réel des attributs de la JOG, facilitant l'analyse des constituants responsables de sa fonction au repos en tant que barrière antireflux. La résolution spatiale axiale et radiale du segment « 3D » pourrait permettre de poursuivre cette étude pour quantifier les signaux de pression de la JOG attribuable au SOI et aux structures extrinsèques (diaphragme et artéfacts vasculaires). Ces attributs du cathéter 3D-HRM suggèrent qu'il s'agit d'un nouvel outil prometteur pour l'étude de la physiopathologie du RGO. Au cours de la déglutition, nous avons évalué la faisabilité d’améliorer la mesure de l’IRP en utilisant ce nouveau cathéter de manométrie 3D avec un nouveau paradigme (3D eSleeve) basé sur l’utilisation de la pression radiale minimale à chaque niveau de capteurs de pression. Nos résultats suggèrent que cette approche est plus précise que celle de la manométrie haute résolution standard. La 3D-HRM devrait certainement améliorer la précision des mesures de relaxation de la JOG et cela devrait avoir un impact sur la recherche pour modéliser la JOG au cours de la déglutition et dans le RGO.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle, sous la direction de M. Philippe Despoix (Université de Montréal) et de M. Michel Marie (Université Sorbonne Nouvelle-Paris 3)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Contexte: Le Bénin est atteint par le double fardeau nutritionnel : dans le même pays, et parfois dans le même ménage, il y a des personnes malnutries et d’autres aux prises avec des maladies chroniques. Ces conditions, au moins pour partie, peuvent être prévenues si la population est sensibilisée à de bonnes habitudes alimentaires. Pour ce faire, les professionnels de la santé ont besoin d’outils comme un guide alimentaire (GA) pour faciliter l’apprentissage de bonnes pratiques alimentaires. Ce dernier nécessite plusieurs étapes à son élaboration, dont la définition des groupes alimentaires, la présentation visuelle et la quantification des portions d'aliments. Objectif : Ce travail a eu pour but de proposer et d’homologuer des portions quotidiennes d’aliments dans chaque groupe alimentaire pour différents groupes d’âge de Béninois. Méthode : Elle consiste à : 1) Caractériser la consommation alimentaire locale; 2) Optimiser le profil moyen de consommation alimentaire quotidienne à l’aide de la programmation linéaire (PL); 3) Traduire les résultats en termes de nombre et taille de portions d’aliments de chaque groupe à consommer quotidiennement; 4) Illustrer les recommandations au moyen d’exemples de menus journaliers; 5) Homologuer le prototype du GA avec des experts béninois. La PL a permis de déterminer les choix d’aliments et quantités optimales à recommander à partir des enquêtes transversales récentes et des recommandations nutritionnelles de l’OMS. Résultats : Les quantités et portions d'aliments recommandées à la consommation ont été déterminées. Les résultats ont été partagés avec les personnes-ressources en nutrition au Bénin. Le premier prototype du GA a été développé pour restitution subséquente aux autorités du Bénin.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le présent mémoire constitue une tentative de circonscrire - par l’étude d’un corpus textuel principalement emprunté à l’œuvre vernaculaire (allemande) de Maître Eckhart de Hochheim (1260-1328) – le rôle joué par certains motifs conceptuels caractérisant la notion moderne de sujet-agent au sein de la pensée de ce philosophe, théologien et prédicateur. Plus précisément, il y est question de déterminer en quoi le « je » (ich) décrit en plusieurs lieux textuels de l’œuvre d’Eckhart présente les caractères d’autonomie et de transparence à soi qui sont l’apanage de la subjectivité telle que la conçoit majoritairement une certaine modernité postcartésienne. Notre argument, qui se déploie sur trois chapitres, adopte sur le corpus faisant l’objet de cette étude et la conceptualité qu’il déploie, trois perspectives différentes – lesquelles perspectives sont respectivement d’ordre ontologique (premier chapitre), existentiel ou éthique (second chapitre) et anthropologique (troisième chapitre). La première approche – ontologique – explicite le sens que donne Eckhart aux notions d’être, de néant, d’intellect et d’image, ainsi que la manière dont elles se définissent dialectiquement en rapport les unes avec les autres. Le second chapitre, dont l’approche est existentielle, expose les applications éthiques des concepts abordés au chapitre précédent, analysant la méthode de détachement prescrite par Eckhart pour parvenir à l’état de béatitude. Le troisième et dernier chapitre cherche, quant à lui, à définir de quelle manière l’homme se définit par rapport à l’union à laquelle l’invite Eckhart, et ce autant sur le plan spécifique que sur le plan individuel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’émergence de nouvelles applications et de nouveaux services (tels que les applications multimédias, la voix-sur-IP, la télévision-sur-IP, la vidéo-sur-demande, etc.) et le besoin croissant de mobilité des utilisateurs entrainent une demande de bande passante de plus en plus croissante et une difficulté dans sa gestion dans les réseaux cellulaires sans fil (WCNs), causant une dégradation de la qualité de service. Ainsi, dans cette thèse, nous nous intéressons à la gestion des ressources, plus précisément à la bande passante, dans les WCNs. Dans une première partie de la thèse, nous nous concentrons sur la prédiction de la mobilité des utilisateurs des WCNs. Dans ce contexte, nous proposons un modèle de prédiction de la mobilité, relativement précis qui permet de prédire la destination finale ou intermédiaire et, par la suite, les chemins des utilisateurs mobiles vers leur destination prédite. Ce modèle se base sur : (a) les habitudes de l’utilisateur en terme de déplacements (filtrées selon le type de jour et le moment de la journée) ; (b) le déplacement courant de l’utilisateur ; (c) la connaissance de l’utilisateur ; (d) la direction vers une destination estimée ; et (e) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que ce modèle donne une précision largement meilleure aux approches existantes. Dans la deuxième partie de cette thèse, nous nous intéressons au contrôle d’admission et à la gestion de la bande passante dans les WCNs. En effet, nous proposons une approche de gestion de la bande passante comprenant : (1) une approche d’estimation du temps de transfert intercellulaire prenant en compte la densité de la zone de déplacement en terme d’utilisateurs, les caractéristiques de mobilité des utilisateurs et les feux tricolores ; (2) une approche d’estimation de la bande passante disponible à l’avance dans les cellules prenant en compte les exigences en bande passante et la durée de vie des sessions en cours ; et (3) une approche de réservation passive de bande passante dans les cellules qui seront visitées pour les sessions en cours et de contrôle d’admission des demandes de nouvelles sessions prenant en compte la mobilité des utilisateurs et le comportement des cellules. Les résultats de simulation indiquent que cette approche réduit largement les ruptures abruptes de sessions en cours, offre un taux de refus de nouvelles demandes de connexion acceptable et un taux élevé d’utilisation de la bande passante. Dans la troisième partie de la thèse, nous nous penchons sur la principale limite de la première et deuxième parties de la thèse, à savoir l’évolutivité (selon le nombre d’utilisateurs) et proposons une plateforme qui intègre des modèles de prédiction de mobilité avec des modèles de prédiction de la bande passante disponible. En effet, dans les deux parties précédentes de la thèse, les prédictions de la mobilité sont effectuées pour chaque utilisateur. Ainsi, pour rendre notre proposition de plateforme évolutive, nous proposons des modèles de prédiction de mobilité par groupe d’utilisateurs en nous basant sur : (a) les profils des utilisateurs (c’est-à-dire leur préférence en termes de caractéristiques de route) ; (b) l’état du trafic routier et le comportement des utilisateurs ; et (c) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que la plateforme proposée améliore la performance du réseau comparée aux plateformes existantes qui proposent des modèles de prédiction de la mobilité par groupe d’utilisateurs pour la réservation de bande passante.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Comment concevoir la sécurité et le conflit violent d’aujourd’hui ? Cette étude traite de la pertinence de l’étude des questions environnementales au champ de la gouvernance de la sécurité dans le cadre de la consolidation de la paix. Ainsi, nous cherchons à décrire les liens entre les enjeux environnementaux, la sécurité et le conflit violent, à étudier le potentiel des projets environnementaux pour la gouvernance de la sécurité, de présenter les recommandations pour améliorer la durabilité de ces interventions, tout en considérant la question des écophilosophies. Nous avons opté pour des données de type qualitatif, soit sept entrevues semi-directives réalisées avec des professionnels du domaine des opérations de paix, quatre webémissions et neuf documents écrits. Toutes ont été traitées selon les directives de la théorie ancrée. Notre analyse démontre une interdépendance entre la détérioration environnementale, la sécurité et la dynamique des conflits armés. À l’instar de cette interaction, la « coopération environnementale » et la gestion des ressources naturelles serviraient à établir un dialogue entre les belligérants dans un objectif de bâtir la confiance, mais aussi à promouvoir le développement durable. La participation citoyenne constituerait un facteur incontournable pour développer la résilience des populations et des institutions face aux changements environnementaux et sociaux rapides et par conséquent favoriserait une sécurité humaine plus stable. Or, les réformes de gouvernance de la sécurité demandent une plus grande intégration de la population. Pour conclure, nous avons produit un modèle d’intégration des questions environnementales dans le but d’améliorer la gouvernance de la sécurité dans le cadre de consolidation de la paix en milieux postconflits. Sous forme de six énoncés pratiques, nous expliquons l’importance d’imbriquer les concepts de sécurité humaine et environnementale, d’exploiter les opportunités que présentent les situations d’interdépendances, de considérer davantage les interventions locales, d’adopter une approche participative, d’utiliser la coopération environnementale et de privilégier les approches stratégiques amenant à des solutions gagnantes pour tous.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La situation de la forêt tropicale dans les pays en développement en général, et en République Démocratique du Congo (RDC) en particulier, est inquiétante. Les émissions de dioxyde de carbone dues au déboisement sont de l’ordre de 1,6 GtCO2e/an, soit 17% des émissions mondiales de « gaz à effet de serre ». Sous l’égide de la Convention-cadre des Nations Unies sur les changements climatiques, le REDD+ a été institué pour lutter contre cette déforestation et la dégradation des forêts. Cette étude examine les différentes opportunités qu’offre ce programme pour l’aménagement écosystémique du couvert forestier de la RDC et les obstacles contextuels à sa mise en oeuvre. Pour la RDC, le REDD+ présente un certain nombre d’opportunités : réduction des émissions liées au déboisement et à la dégradation des forêts; amorce des travaux d’afforestation et de reforestation par une gestion durable des ressources conduisant à la création des emplois et favorisant la croissance des PIB et des exports; accroissement du rendement et maintien d’une plus grande couverture des besoins alimentaires. Le REDD+ peut favoriser la croissance du Produit intérieur brut agricole. Il peut contribuer à l’électrification des ménages et réduire de moitié les dépenses des ménages dépendant de l’exploitation minière et des hydrocarbures et, ainsi, générer des milliers d’emplois en infrastructures. Pour les populations locales et autochtones, il peut contribuer aussi à protéger et à valoriser les cultures liées à la forêt. Mais, face aux pesanteurs d’ordre juridique, politique, social, économique, technologique et culturel caractéristiques de ce pays, ces opportunités risquent d’être amenuisées, sinon annihilées. Étant donné que l’essentiel du déploiement du dispositif du REDD+ se réalisera dans les zones rurales congolaises, l’obstacle majeur reste le droit coutumier. La solution serait d’harmoniser les exigences et finalités du REDD+ non seulement avec le Code forestier de 2002 et ses mesures d’exécution mais aussi avec le droit coutumier auquel les communautés locales et autochtones s’identifient.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Plusieurs interventions visant à améliorer la santé psychologique au travail reposent sur une conceptualisation pathogénique où celle-ci est représentée par une absence d’états psychologiques négatifs (Randall & Nielsen, 2010). Or, elle représenterait à la fois l’absence d’états négatifs de détresse psychologique au travail et la présence d’états positifs de bien-être psychologique au travail (Gilbert, Dagenais-Desmarais, & Savoie, 2011). Ceci suggère qu’afin de maximiser l’impact des interventions, il serait pertinent d’indiquer aux intervenants des leviers pouvant influencer les volets positifs et négatifs de la santé psychologique au travail. Parmi ces leviers, Gilbert (2009) a identifié les demandes et les ressources au travail. Cependant, les modèles théoriques traitant de l’impact de demandes et de ressources sur des états positifs et négatifs tendent à traiter de ces effets de manière indépendante et aucun ne formule de propositions concernant l’impact potentiel de ces leviers sur un état complet et unifié de santé psychologique au travail (e.g., Job Demand-Control(-Support) de Karasek & Theorell, 1990; Job Demands-Resources de Bakker & Demerouti, 2007). En considérant l’aspect interrelié et distinct de la facette positive et négative de la santé psychologique au travail, la présente thèse vise donc à explorer la dynamique entre les demandes, les ressources et un état complet et unifié de santé psychologique au travail. Pour ce faire, un article théorique et un article empirique sont présentés. L’article théorique intègre différentes théories afin d’apporter un éclairage sur l’incidence des demandes et ressources au travail sur un état complet et unifié de santé psychologique au travail, et d’expliquer simultanément l’influence de ces aspects du travail sur les facettes de bien-être et de détresse au travail. Il avance ainsi que, telles que définies par le modèle Job Demand-Resources (Bakker & Demerouti, 2007), les demandes tendraient a davantage représenter des menaces que des défis et auraient alors des effets néfastes sur un état complet de santé psychologique au travail et ses facettes positifs et négatifs. D’autre part, il est suggéré que lorsque les demandes sont élevées, avoir suffisamment de ressources pour se sentir capable de répondre avec succès aux demandes pourrait amener celles-ci à moins représenter des menaces et davantage représenter des défis. Comparativement à une situation où les ressources sont insuffisantes, cette première situation accroîtrait un état complet de santé psychologique au travail, de même que l’intensité de son volet positif, tandis que l’intensité de son volet négatif serait amoindrie. Enfin, il est suggéré que les ressources au travail faciliteraient la satisfaction des besoins psychologiques fondamentaux, ce qui aurait un effet bénéfique sur un état complet de santé psychologique au travail, de même que sur ses facettes. Pour sa part, l’article empirique vise à explorer empiriquement la dynamique entre les demandes, ressources et un état unifié et complet de santé psychologique au travail. Pour ce faire, deux études utilisant des modélisations par équations structurelles sont effectuées. La première utilise un devis transversal et deux échantillons de 302 et 384 enseignants. Elle montre que les demandes et ressources au travail ont une incidence directe respectivement nocive et bénéfique sur la santé psychologique au travail. Cependant, contrairement à ce qui était attendu, les ressources au travail n’auraient pas d’effet modérateur. Ces résultats sont similaires d’un échantillon à l’autre. La seconde étude utilise un devis longitudinal, deux temps de mesure avec une année d’intervalle et un échantillon de 158 enseignants. Suite à une comparaison des relations de causalité normale, inverse et réciproque; elle démontre que la causalité normale serait le type de relation qui expliquerait le mieux les données. Ce constat vient donc renforcer les résultats de l’étude précédente et suggère qu’une diminution des demandes et une augmentation des ressources s’accompagneraient d’une augmentation de la santé psychologique au travail. En explorant théoriquement et empiriquement la dynamique entre les demandes, les ressources et la santé psychologique au travail, la présente thèse offre des bases théoriques novatrices et des bases empiriques solides pour les recherches traitant de demandes et de ressources au travail qui désire étudier un état complet et unifié de santé psychologique au travail, et considérer l’aspect distinct et interdépendant de ses facettes positives et négatives. En pratique, une telle approche permettrait aux décideurs de plus facilement identifier les leviers sur lesquels il importe d’investir pour maximiser la santé psychologique, car cette dernière serait représentée par un critère unique plutôt que plusieurs critères séparés (Mihalopoulos, Carter, Pirkis, & Vos, 2013).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La phobie sociale est le plus souvent décrite comme suivant une trajectoire chronique. Afin de modifier ce cours clinique, plusieurs protocoles de traitement ont été développés, leur efficacité ayant été démontrée dans de nombreuses études. Toutefois, est-ce que les gains rapportés se maintiennent des années suivant la fin du traitement? Cette dissertation avait pour objectif d’examiner cette question. Une recension d’études a d’abord permis d’effectuer une analyse critique des évidences relatives à la durabilité des effets thérapeutiques des traitements contemporains. Cette recension a permis de constater que les études ayant inclus une période de suivi excédant un an sont peu nombreuses. Lorsque de telles études ont été recensées, la réduction de l’anxiété s’est avérée la retombée thérapeutique principalement investiguée. Les évidences demeurent parcellaires concernant la durabilité des gains sur d’autres dimensions de la phobie sociale, en l’occurrence le fonctionnement social, et quant au maintien de la rémission. Pour combler ces lacunes, la durabilité des gains thérapeutiques, 8 à 15 ans suivant la fin d’un traitement d’approche interpersonnelle (AI), a été évaluée. Cette approche vise la dissolution du pattern global d’auto-protection, en améliorant la participation sociale et en facilitant le développement de modes relationnels plus adaptés. Cinquante-huit individus, satisfaisant initialement les critères de la phobie sociale, ont pris part à cette étude. Ces derniers ont rapporté des gains significatifs, jusqu’à une relance d’un an suivant la fin du traitement. L’évolution de l’anxiété sociale, de la détresse générale et du fonctionnement social, de la relance d’un an à la relance de 8 à 15 ans, a donc été évaluée. La signification statistique et clinique des effets obtenus dans le temps, de même que les différences individuelles, ont été examinées. Les résultats révèlent que le protocole de traitement AI a produit des effets durables depuis la relance d’un an sur les variables examinées. La plupart des participants en rémission à la relance d’un an l’étaient encore une dizaine d’années plus tard. Les participants ayant rapporté une réduction cliniquement significative de la détresse sociale un an suivant la fin du traitement ont connu une trajectoire similaire. Une augmentation significative du taux de rémission a également été constatée. Une analyse fonctionnelle a d’ailleurs révélé une amélioration des répertoires de comportements sociaux chez la majorité des participants, suggérant une dynamique de changement reflétant le passage de l’auto-protection à la participation sociale. Par ailleurs, une hypothèse issue de la perspective interpersonnelle de la phobie sociale et de son traitement a été étayée : une convergence des changements relevés sur les dimensions anxieuse et interpersonnelle a été notée. En somme, l’ensemble de ces résultats soutient l’efficacité à long terme du traitement AI.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Outiller de façon satisfaisante la gestion des connaissances de consultants dans un secteur d’activité en constante évolution est une tâche ardue, pour laquelle il n’existe aucune solution applicable à tous types de milieux. Toutefois, notre expérience de plus de 25 ans en consultation nous amène à croire que, si l’on se restreint à des PME d’au plus 200 consultants dotées d’une culture d’entreprise favorable, il est faisable d’en arriver à une solution informatique réduisant significativement la problématique de gestion des connaissances. Cette étude vise à présenter la conception d’une telle solution. Ses principales caractéristiques sont : utilisation d’une taxonomie pour classifier et décrire uniformément les expertises et leurs usages; prise en compte systématique des caractéristiques des consultants; imbrication avec la gestion des demandes, des affectations, du recrutement et de la rétention; gestion décentralisée et participative; notifications de possibilités d’enrichissements et d’usages des expertises. Cette conception est basée sur des critères de qualité établis à partir d’une description du type d’organisation visé et d’hypothèses sur leur fonctionnement et leurs besoins. Ces hypothèses s’appuient sur une revue de littérature et sur plus de 25 années d’expérience dans le milieu. Il s’agit donc d’une recherche de type « design science », Hevner (2007) et March et Storey (2008), où les hypothèses de nature heuristique (basées sur l’expérience) complètent les connaissances empiriquement établies recensées dans la revue de littérature. La suite naturelle de notre travail serait d’implanter différentes parties de la solution, pour vérifier jusqu’à quel point celle-ci permet bien de réduire la problématique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le changement de paradigme amené par l'approche par compétences dans le système éducatif québécois au début des années 2000 devait conduire les enseignants à adopter de nouvelles façons de faire prescrites par la Politique en évaluation des apprentissages (MEQ, 2003) qui s’inscrivent dans une évaluation au service de l’apprentissage. Brookhart (2004) pour sa part, considère que la recherche en ce qui concerne les apprentissages et l'évaluation au primaire sont limitées et Boutin (2007) se questionne sur le changement effectif des pratiques considérant les vives critiques suscitées quant à l'implantation de l'approche par compétences dans les écoles québécoises. Cette recherche vise à apporter un éclairage quant aux façons de faire d'enseignants de la 6e année du primaire à toutes les étapes de la démarche d'évaluation en lecture, écriture et mathématique en les situant dans des perspectives nouvelles ou traditionnelles de l'évaluation et en observant si la fréquence des énoncés reliés aux façons de faire diffère selon les caractéristiques personnelles des enseignants. Suivant une méthodologie de type simultanée imbriquée, 55 enseignants ont rempli un questionnaire et 14 d'entre eux ont participé à des entrevues semi-dirigées. L’analyse des données montre que tout au long de la démarche d'évaluation, les façons de faire des enseignants varient, et ce, dans les trois matières: ils utilisent des façons de faire qui sont situées tantôt dans un continuum allant des perspectives traditionnelles aux perspectives nouvelles de l'évaluation comme dans la planification, la collecte de données, l'interprétation et la communication et tantôt dans les nouvelles perspectives de l'évaluation comme dans l'étape du jugement, et ce, selon leurs caractéristiques sociodémographiques. Nous avons ainsi pu catégoriser les enseignants selon le modèle de Schwartz, Bransford et Sears (2005) en distinguant ceux qui sont efficients de ceux qui ne le sont pas, même s'ils innovent. Afin d’améliorer les pratiques des enseignants à chaque étape de la démarche d’évaluation, nous pensons qu'il serait intéressant de valider un tableau synthèse inspiré de Scallon (2004) et l'OCDE (2005) afin de créer une métagrille pour analyser la pertinence et la cohérence des façons de faire des enseignants en cours de cycle dans une optique d’évaluation intégrée à l’apprentissage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire a pour but de caractériser la conception moderniste du nationalisme chez la sociologue américaine Liah Greenfeld. Celle-ci fait une contribution significative à la littérature sur le nationalisme, notamment par son approche pluridisciplinaire que l'on peut diviser en trois axes principaux : philosophique, historique et psychologique. Le mémoire propose donc une synthèse de l'œuvre de l'auteure tout en accordant comme il se doit une place prépondérante à l'axe philosophique de sa pensée. On définira dans un premier temps la conception «mentaliste» et empiriste du monde que Greenfeld développe et qui est inspirée de Max Weber, en prenant le temps de distinguer celle-ci des autres conceptions canoniques (idéalisme, réalisme, structuralisme, etc.). Cela permettra d'établir sur des bases philosophiques et sociologiques solides la conception de la nation et du nationalisme de Greenfeld, tout en démontrant que le nationalisme est selon elle l'élément fondamental qui caractérise la modernité. On analysera ensuite les différents types de nationalismes mentionnés par la sociologue, en soulignant l'importance qu'elle accorde à la composante économique du nationalisme. On terminera en soulevant les enjeux philosophiques qui se trouvent au cœur de la description historiciste et psychologisante que fait Greenfeld pour analyser l'émergence, le déploiement et la perpétuation du nationalisme dans le monde à travers différentes nations modernes (principalement Angleterre, France, Russie, États-Unis, Allemagne). Le mémoire se termine en soulevant quelques critiques.