93 resultados para compromis


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le rapide déclin actuel de la biodiversité est inquiétant et les activités humaines en sont la cause directe. De nombreuses aires protégées ont été mises en place pour contrer cette perte de biodiversité. Afin de maximiser leur efficacité, l’amélioration de la connectivité fonctionnelle entre elles est requise. Les changements climatiques perturbent actuellement les conditions environnementales de façon globale. C’est une menace pour la biodiversité qui n’a pas souvent été intégrée lors de la mise en place des aires protégées, jusqu’à récemment. Le mouvement des espèces, et donc la connectivité fonctionnelle du paysage, est impacté par les changements climatiques et des études ont montré qu’améliorer la connectivité fonctionnelle entre les aires protégées aiderait les espèces à faire face aux impacts des changements climatiques. Ma thèse présente une méthode pour concevoir des réseaux d’aires protégées tout en tenant compte des changements climatiques et de la connectivité fonctionnelle. Mon aire d’étude est la région de la Gaspésie au Québec (Canada). La population en voie de disparition de caribou de la Gaspésie-Atlantique (Rangifer tarandus caribou) a été utilisée comme espèce focale pour définir la connectivité fonctionnelle. Cette petite population subit un déclin continu dû à la prédation et la modification de son habitat, et les changements climatiques pourraient devenir une menace supplémentaire. J’ai d’abord construit un modèle individu-centré spatialement explicite pour expliquer et simuler le mouvement du caribou. J’ai utilisé les données VHF éparses de la population de caribou et une stratégie de modélisation patron-orienté pour paramétrer et sélectionner la meilleure hypothèse de mouvement. Mon meilleur modèle a reproduit la plupart des patrons de mouvement définis avec les données observées. Ce modèle fournit une meilleure compréhension des moteurs du mouvement du caribou de la Gaspésie-Atlantique, ainsi qu’une estimation spatiale de son utilisation du paysage dans la région. J’ai conclu que les données éparses étaient suffisantes pour ajuster un modèle individu-centré lorsqu’utilisé avec une modélisation patron-orienté. Ensuite, j’ai estimé l’impact des changements climatiques et de différentes actions de conservation sur le potentiel de mouvement du caribou. J’ai utilisé le modèle individu-centré pour simuler le mouvement du caribou dans des paysages hypothétiques représentant différents scénarios de changements climatiques et d’actions de conservation. Les actions de conservation représentaient la mise en place de nouvelles aires protégées en Gaspésie, comme définies par le scénario proposé par le gouvernement du Québec, ainsi que la restauration de routes secondaires à l’intérieur des aires protégées. Les impacts des changements climatiques sur la végétation, comme définis dans mes scénarios, ont réduit le potentiel de mouvement du caribou. La restauration des routes était capable d’atténuer ces effets négatifs, contrairement à la mise en place des nouvelles aires protégées. Enfin, j’ai présenté une méthode pour concevoir des réseaux d’aires protégées efficaces et j’ai proposé des nouvelles aires protégées à mettre en place en Gaspésie afin de protéger la biodiversité sur le long terme. J’ai créé de nombreux scénarios de réseaux d’aires protégées en étendant le réseau actuel pour protéger 12% du territoire. J’ai calculé la représentativité écologique et deux mesures de connectivité fonctionnelle sur le long terme pour chaque réseau. Les mesures de connectivité fonctionnelle représentaient l’accès général aux aires protégées pour le caribou de la Gaspésie-Atlantique ainsi que son potentiel de mouvement à l’intérieur. J’ai utilisé les estimations de potentiel de mouvement pour la période de temps actuelle ainsi que pour le futur sous différents scénarios de changements climatiques pour représenter la connectivité fonctionnelle sur le long terme. Le réseau d’aires protégées que j’ai proposé était le scénario qui maximisait le compromis entre les trois caractéristiques de réseau calculées. Dans cette thèse, j’ai expliqué et prédit le mouvement du caribou de la Gaspésie-Atlantique sous différentes conditions environnementales, notamment des paysages impactés par les changements climatiques. Ces résultats m’ont aidée à définir un réseau d’aires protégées à mettre en place en Gaspésie pour protéger le caribou au cours du temps. Je crois que cette thèse apporte de nouvelles connaissances sur le comportement de mouvement du caribou de la Gaspésie-Atlantique, ainsi que sur les actions de conservation qui peuvent être prises en Gaspésie afin d’améliorer la protection du caribou et de celle d’autres espèces. Je crois que la méthode présentée peut être applicable à d’autres écosystèmes aux caractéristiques et besoins similaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Méthodologie:Cadre conceptuel: Principal-agent

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’ingénierie des biomatériaux a connu un essor prodigieux ces dernières décennies passant de matériaux simples à des structures plus complexes, particulièrement dans le domaine cardiovasculaire. Cette évolution découle de la nécessité des biomatériaux de permettre la synergie de différentes propriétés, dépendantes de leurs fonctions, qui ne sont pas forcément toutes compatibles. Historiquement, les premiers matériaux utilisés dans la conception de dispositifs médicaux étaient ceux présentant le meilleur compromis entre les propriétés physico-chimiques, mécaniques et biologiques que nécessitait leur application. Cependant, il se peut qu’un tel dispositif possède les bonnes propriétés physico-chimiques ou mécaniques, mais que sa biocompatibilité soit insuffisante induisant ainsi des complications cliniques. Afin d’améliorer ces propriétés biologiques tout en conservant les propriétés de volume du matériau, une solution est d’en modifier la surface. L’utilisation d’un revêtement permet alors de moduler la réponse biologique à l’interface biomatériau-hôte et de diminuer les effets indésirables. Ces revêtements sont optimisés selon deux critères principaux : la réponse biologique et la réponse mécanique. Pour la réponse biologique, les deux approches principales sont de mettre au point des revêtements proactifs qui engendrent l’adhérence, la prolifération ou la migration cellulaire, ou passifs, qui, principalement, sont inertes et empêchent l’adhérence de composés biologiques. Dans certains cas, il est intéressant de pouvoir favoriser certaines cellules et d’en limiter d’autres, par exemple pour lutter contre la resténose, principalement due à la prolifération incontrôlée de cellules musculaires lisses qui conduit à une nouvelle obstruction de l’artère, suite à la pose d’un stent. La recherche sur les revêtements de stents vise, alors, à limiter la prolifération de ces cellules tout en facilitant la ré-endothélialisation, c’est-à-dire en permettant l’adhérence et la prolifération de cellules endothéliales. Dans d’autres cas, il est intéressant d’obtenir des surfaces limitant toute adhérence cellulaire, comme pour l’utilisation de cathéter. Selon leur fonction, les cathéters doivent empêcher l’adhérence cellulaire, en particulier celle des bactéries provoquant des infections, et être hémocompatibles, principalement dans le domaine vasculaire. Il a été démontré lors d’études précédentes qu’un copolymère à base de dextrane et de poly(méthacrylate de butyle) (PBMA) répondait aux problématiques liées à la resténose et qu’il possédait, de plus, une bonne élasticité, propriété mécanique importante due à la déformation que subit le stent lors de son déploiement. L’approche de ce projet était d’utiliser ce copolymère comme revêtement de stents et d’en améliorer l’adhérence à la surface en formant des liens covalents avec la surface. Pour ce faire, cela nécessitait l’activation de la partie dextrane du copolymère afin de pouvoir le greffer à la surface aminée. Il était important de vérifier pour chaque étape l’influence des modifications effectuées sur les propriétés biologiques et mécaniques des matériaux obtenus, mais aussi d’un point de vue de la chimie, l’influence que cette modification pouvait induire sur la réaction de copolymérisation. Dans un premier temps, seul le dextrane est considéré et est modifié par oxydation et carboxyméthylation puis greffé à des surfaces fluorocarbonées aminées. L’analyse physico-chimique des polymères de dextrane modifiés et de leur greffage permet de choisir une voie de modification préférentielle qui n’empêchera pas ultérieurement la copolymérisation. La carboxyméthylation permet ainsi d’obtenir un meilleur recouvrement de la surface tout en conservant la structure polysaccharidique du dextrane. Le greffage du dextrane carboxyméthylé (CMD) est ensuite optimisé selon différents degrés de modification, tenant compte aussi de l’influence que ces modifications peuvent induire sur les propriétés biologiques. Finalement, les CMD précédemment étudiés, avec des propriétés biologiques définies, sont copolymérisés avec des monomères de méthacrylate de butyle (BMA). Les copolymères ainsi obtenus ont été ensuite caractérisés par des analyses physico-chimiques, biologiques et mécaniques. Des essais préliminaires ont montrés que les films de copolymères étaient anti-adhérents vis-à-vis des cellules, ce qui a permis de trouver de nouvelles applications au projet. Les propriétés élastiques et anti-adhérentes présentées par les films de copolymères CMD-co-PBMA, les rendent particulièrement intéressants pour des applications comme revêtements de cathéters.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La théorie biodémographique liée à l’âge prédit un compromis entre l’allocation reproductrice au début de la vie et la reproduction tardive, la survie, ou ces deux composantes de la valeur adaptative à la fois. Actuellement, la notion de compromis a été démontrée par plusieurs études en milieu naturel. Par contre, l’effet des conditions environnementales et de la qualité des individus a rarement été étudié. Grâce aux données longitudinales récoltées dans la population de chèvres de montagne (Oreamnos americanus) de Caw Ridge, Alberta, nous avons pu examiner l’influence de l’âge à la première reproduction (APR) et du succès reproducteur au début de la vie (SRD) sur la longévité et sur le succès reproducteur tardif, en tenant compte des conditions environnementales natales et de la qualité des individus. Contrairement à nos prédictions, nous n’avons pas détecté la présence d’un compromis entre l’allocation reproductrice au début de la vie et la performance tardive dans cette population. Au contraire, l’APR et le SRD avaient des effets directs et faiblement positifs sur le succès reproducteur tardif. La densité de population à la naissance d’une femelle a fortement réduit le succès reproducteur tardif de manière directe. Elle l’affectait également de manière indirecte par son effet sur l’APR et le SRD. La densité était le seul facteur déterminant de la longévité, par un effet direct et fortement négatif. Tel que démontré dans des études précédentes sur la même population, les femelles de bonne qualité avaient un SRD élevé par rapport aux femelles de mauvaise qualité. Ces résultats fournissent une vision intégrée des compromis au début et à la fin de la vie, en soulignant l’importance de tenir compte des conditions environnementales, qui pourraient engendrer des implications à long terme sur la dynamique des populations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les élections post-conflit ou élections de sortie de crise organisées sous l’égide de la communauté internationale en vue de rétablir la paix dans les pays sortant de violents conflits armés ont un bilan mixte caractérisé par le succès ou l’échec selon les cas. Ce bilan mitigé représente le problème principal auquel cette recherche tente de répondre à travers les questions suivantes : l’assistance électorale étrangère est-elle efficace comme outil de rétablissement de la paix dans les sociétés post-conflit? Qu’est ce qui détermine le succès ou l’échec des élections post-conflit à contribuer efficacement au rétablissement de la paix dans les sociétés déchirées par la guerre? Pour résoudre cette problématique, cette thèse développe une théorie de l’assistance électorale en période post-conflit centrée sur les parties prenantes à la fois du conflit armé et du processus électoral. Cette théorie affirme que l’élément clé pour le succès des élections post-conflit dans le rétablissement de la paix est le renforcement de la capacité de négociation des parties prenantes à la fois dans le processus de paix et dans le processus électoral post-conflit. Dans les situations post-conflit, une assistance électorale qui se voudrait complète et efficace devra combiner à la fois le processus électoral et le processus de paix. L’assistance électorale sera inefficace si elle se concentre uniquement sur les aspects techniques du processus électoral visant à garantir des élections libres, transparentes et équitables. Pour être efficace, l’accent devra également être mis sur les facteurs supplémentaires qui peuvent empêcher la récurrence de la guerre, tels que l’habilité des individus et des groupes à négocier et à faire des compromis sur les grandes questions qui peuvent menacer le processus de paix. De fait, même des élections transparentes comme celles de 1997 au Liberia saluées par la communauté internationale n’avaient pas réussi à établir des conditions suffisantes pour éviter la reprise des hostilités. C’est pourquoi, pour être efficace, l’assistance électorale dans les situations de post-conflit doit prendre une approche globale qui priorise l’éducation civique, la sensibilisation sur les droits et responsabilités des citoyens dans une société démocratique, le débat public sur les questions qui divisent, la participation politique, la formation au dialogue politique, et toute autre activité qui pourrait aider les différentes parties à renforcer leur capacité de négociation et de compromis. Une telle assistance électorale fera une contribution à la consolidation de la paix, même dans le contexte des élections imparfaites, comme celles qui se sont détenues en Sierra Leone en 2002 ou au Libéria en 2005. Bien que la littérature sur l’assistance électorale n’ignore guère l’importance des parties prenantes aux processus électoraux post-conflit (K. Kumar, 1998, 2005), elle a fortement mis l’accent sur les mécanismes institutionnels. En effet, la recherche académique et professionnelle est abondante sur la réforme des lois électorales, la reforme constitutionnelle, et le développement des administrations électorales tels que les commissions électorales, ainsi que l’observation électorale et autres mécanismes de prévention de la fraude électorale, etc. (Carothers & Gloppen, 2007). En d’autres termes, les décideurs et les chercheurs ont attribué jusqu’à présent plus d’importance à la conception et au fonctionnement du cadre institutionnel et des procédures électorales. Cette thèse affirme qu’il est désormais temps de prendre en compte les participants eux-mêmes au processus électoral à travers des types d’assistance électorale qui favoriseraient leur capacité à participer à un débat pacifique et à trouver des compromis aux questions litigieuses. Cette approche plus globale de l’assistance électorale qui replace l’élection post-conflit dans le contexte plus englobant du processus de paix a l’avantage de transformer le processus électoral non pas seulement en une expérience d’élection de dirigeants légitimes, mais aussi, et surtout, en un processus au cours duquel les participants apprennent à régler leurs points de vue contradictoires à travers le débat politique dans un cadre institutionnel avec des moyens légaux et légitimes. Car, si le cadre institutionnel électoral est important, il reste que le résultat du processus électoral dépendra essentiellement de la volonté des participants à se conformer au cadre institutionnel et aux règles électorales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans la réalité complexe d'aujourd'hui, caractérisée par une globalisation des marchés et une internationalisation accrue des échanges, les produits industriels ont souvent plus d'une origine nationale. Ce facteur constitue un attribut important dans l'évaluation de la qualité de fabrication des produits industriels et la formation de jugements évaluatifs à leur égard. L'objet principal de cette étude porte sur la distinction entre le pays de conception et le pays d'assemblage et leurs influences relatives sur les évaluations de la qualité et la valeur de l'achat des produits de nature industrielle. L'appréciation des acheteurs professionnels pour des profils d'analyse conjointe est examinée pour trois catégories de produits différents de par l'importance de leur achat et le risque qui leur est associé: systèmes informatiques, télécopieurs et stylos à bille. Chacun de ces trois produits est caractérisé par trois niveaux hiérarchiques sur cinq attributs: le pays de conception, le pays d'assemblage, la marque, le prix et la garantie accordée. 306 questionnaires ont été administrés auprès d'un échantillon probabiliste d'acheteurs industriels québécois, membres de l'Association Canadienne de Gestion des Achats (ACGA). Les résultats indiquent l'existence d'une distinction importante entre le pays de conception et celui d'assemblage et que celle-ci est plus marquée pour des pays en voie de développement. Le pays de conception et le pays d'assemblage sont les attributs les plus importants pour l'évaluation de la qualité perçue des produits et de la valeur perçue de leur achat et ce, quel que soit le niveau de complexité du produit considéré. Le prix constitue cependant le facteur le plus déterminant lorsque l'importance et le risque associé au produit sont faibles. Plus un produit suscite une implication personnelle forte, plus le nombre et l'importance des attributs déterminants augmentent. Et plus l'implication et l'importance de l'achat diminuent, plus l'acheteur industriel a recours à des compromis entre les attributs étudiés. Les implications managériales et étatiques sont discutées dans le cadre de la globalisation des marchés et du traité de libre-échange nord-américain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Destruction de la couche d'ozone, effet de serre, encombrement des sites d'enfouissement, voilà des sujets d'actualité abordés quotidiennement dans les médias. La société de consommation qui a apporté le confort matériel au citoyen, aujourd'hui détruit son environnement et diminue sa qualité de vie. Peut-on rester de glace devant les eaux dans lesquelles il n'est plus permis de se baigner? Devant un soleil qui augmente les risques de cancer ? Devant la qualité de l'air qui se dégrade ? Le citoyen peut, de plus en plus, constater de fait la dégradation de son milieu de vie. Les préoccupations concernant l'environnement du citoyen, qui est aussi un consommateur, se traduisent-ils comportements d'achat ? Comme le mentionne Driscoll (1991), les responsables du marketing doivent déterminer les actions et les compromis que certains consommateurs sont prêts à faire lorsqu'ils achètent un produit. L'objectif de la présente étude est donc de clarifier l'influence du critère environnemental, par rapport au degré de connaissance et d'implication des sujets, sur la perception de la valeur du produit et sur l'intention d'achat du consommateur vis-à-vis les produits "verts". De plus, l'étude permettra d'évaluer l'efficacité de stratégie de prix, de marque, d'efficacité et d'écologie dans le cadre d'une planification de marketing pour les produits environnementaux. Pour réaliser ce travail trois produits sont évalués par un échantillon probabiliste de la ville de Sherbrooke, soit; piles AA, nettoyant tout usage et savon à lessive. Les répondants à l'étude ont été regroupés selon deux niveaux de connaissance et d'implication, soit faible ou élevé. Ce travail débute par une revue de la littérature, suivie de la description de la méthodologie utilisée. Pour sa part, le chapitre 5 se consacre à la présentation et à la discussion des résultats de l'étude. La conclusion présente les limites de l'étude et les implications pour les gens d'affaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation de l’espace par une proie herbivore est souvent modulée par le compromis entre l’acquisition de fourrage et l’évitement de la prédation. Nous avons testé l’effet de la manipulation de la disponibilité de fourrage et du ratio couvert forestier/ouverture sur l’utilisation de l’espace par le cerf de Virginie (Odocoileus virginianus) et sa vulnérabilité à la chasse sportive sur l’île d’Anticosti. Nos résultats ont démontré que l’utilisation de l’espace par le cerf et sa vulnérabilité à la chasse peuvent être modifiées par différentes composantes structurales de l’habitat. L’augmentation de la disponibilité de fourrage a entrainé une plus grande utilisation des prairies fertilisées par le cerf, tandis que la diminution du ratio couvert forestier/ouverture a augmenté sa vulnérabilité à la chasse. Ces résultats procurent des pistes de solutions pour les gestionnaires fauniques qui doivent à la fois réduire les dommages causés par les hautes densités de cerfs et satisfaire les chasseurs en maintenant un nombre élevé d’observation de cerfs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’écart croissant entre les valeurs marchande et économique des exploitations agricoles québécoises complexifie le processus de transfert des fermes à la prochaine génération. La capacité de payer limitée des repreneurs et les besoins de retraite des cédants restreignent la marge de manoeuvre nécessaire afin de déterminer un prix de vente de l’entreprise adéquat. La présente étude vise à analyser les déterminants du prix de vente des fermes et montre que dans notre échantillon, le prix est significativement corrélé avec les besoins de retraite nets des cédants et de façon moins significative, avec la valeur économique des fonds propres de l’entreprise. Les considérations financières semblent éclipser les aspects humains et d’importants compromis sont réalisés des deux côtés de la transaction en vue d’assurer la continuité de l’entreprise. L’influence d’intervenants externes à l’entreprise entre également en ligne de compte dans la fixation du prix, ce qui implique que la décision ne découle pas uniquement d’une négociation entre cédants et repreneurs. De façon générale, les fermes laitières semblent confrontées aux mêmes défis que les autres types de production quant à la fixation de leur prix de vente, ce qui suggère que la problématique soit davantage une question de gestion plutôt qu’une question spécifique au secteur. À moins d’un rétrécissement de l’écart entre la valeur marchande des actifs et leurs capacités à générer des revenus, la fixation du prix de vente de plusieurs fermes du Québec risque d’être encore plus contraignante à l’avenir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Two oyster species are currently present along the French coasts : the indigenous European flat oyster (Ostrea edulis), and the Pacific cupped oyster (Crassostrea gigas), that has been introduced from Japan since the beginning of the 70ies. The flat oyster successively suffered from two protozoan diseases during the 60ies and its production decreased from 20 000 tons/year by that time to 1 500 tons/year nowadays. Consequently, the oyster production is principally (99%) based upon the Pacific oyster species with approximately 150 000 tons/year among which 90% are grown from the natural spat. However, the hatchery production of this species is developing and was estimated to 400 to 800 millions spat in 2002. Moreover, strengthened relationships between IFREMER and the 5 commercial hatcheries, that all joined the SYSAAF (Union of the French poultry, shellfish and fish farming selectors), allow to plan for new genetic breeding programs. At the end of the 80ies, IFREMER initiated a genetic breeding program for the resistance of the European flat oyster to the bonamiosis, and obtained strains more tolerant to this disease. After two generations of massal selection, molecular markers had identified a reduced genetic basis in this program. It was then reoriented to an intra-familial selection. However, we were confronted to a zootechnic problem to manage such a scheme and we compromised by an intra-cohorts of families selection scheme managed using molecular markers. The program has now reached the transfer level with experimentation at a professional scale. Concerning the Pacific cupped oyster, and in parallel with the obtaining and the study of polyploids, performance of different Asian cupped oyster strains were compared to the one introduced in France thirty years ago and currently suffering from summer mortalities. The local strain exhibited better performance, certainly based upon a good local adaptation. In other respects, although early growth is a relevant criteria for selection for growth to commercial stage, it is not to be privileged in the context of an oyster producing region with a limited food availability. Contrary, the spat summer mortality became a priority for numerous teams (genetic, physiology, pathology, ecology,...) joined in the MOREST program. The first results showed important survival differences between fullsib and halsib families. They indicate a genetic determinism to this character "survival" and promote for its selection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O chumbo é utilizado em muitos produtos, tais como baterias, gasolina, tintas e corantes, resultando na sua libertação no meio ambiente. Neste trabalho, foi examinado o papel da parede celular da levedura Saccharomyces cerevisiae como uma barreira ou como alvo da toxicidade do chumbo. A biodisponibilidade do Pb é muito reduzida pelos componentes do meio de cultura YEPD, o que dificulta a avaliação da toxicidade deste elemento em concentrações ambientalmente realistas. Para avaliar a toxicidade de Pb em S. cerevisiae, em condições de crescimento, foram efetuadas diferentes diluições (10-100 vezes) do meio YEPD, as quais foram misturadas com várias concentrações de Pb (0,1-1,0 mmol/l). Observou-se que o YEPD diluído 25 vezes constituía a melhor condição de compromisso entre o crescimento celular e a precipitação de Pb. Os genes CWP1 e CWP2 codificam para duas grandes manoproteínas da parede celular da levedura S. cerevisiae; a deleção destes genes CWP aumenta a permeabilidade da parede celular. A suscetibilidade de células de levedura interrompidas no gene CWP1 (estirpe cwp1Δ) ou CWP2 (estirpe cwp2Δ) foi comparada com a da estirpe, isogénica, selvagem (WT). Verificou-se que o crescimento das estirpes cwp1Δ e cwp2Δ, no meio de cultura YEPD 25 vezes diluído, na presença de Pb, não diferiu do crescimento da estirpe WT. Este resultado sugere que a alteração da permeabilidade da parede celular não altera a sensibilidade de células de levedura ao Pb. Foi investigada o impacto do Pb na parede celular de levedura. Para este efeito, comparou-se a suscetibilidade ao dodecil sulfato de sódio (SDS), ao calcofluor (CFW) e a uma enzima que degrada a parede da célula (liticase), em células da estirpe WT não expostas ou expostas a Pb durante 4, 8 ou 24 h. Além disso, o conteúdo de quitina da parede celular de levedura foi investigada por coloração das células com CFW. Os resultados não mostraram uma alteração da suscetibilidade ao SDS e ao CFW, nas células tratadas com Pb; contudo, nas células tratadas durante 24 h com Pb, observou-se um aumento da sensibilidade à liticase e um aumento da coloração com CFW. Estes resultados sugerem que o chumbo interage com a parede celular da levedura e influencia a sua composição. Deve ser levado a cabo trabalho adicional a fim de confirmar estes resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans la dernière décennie, la robotique souple a connu un gain de popularité considérable. Elle est, de façon inhérente, sécuritaire pour les humains et l’environnement qui l’entourent. Grâce à sa faible rigidité, la robotique souple est idéale pour manipuler des objets fragiles et elle est en mesure de s’adapter à son environnement. Les caractéristiques uniques de la robotique souple font de cette technologie un tremplin vers la conception d’appareils médicaux novateurs, plus particulièrement pour des outils permettant le positionnement d’aiguilles dans le but de faire des interventions percutanées, notamment au niveau du foie. Toutefois, la souplesse de cette technologie induit, du même coup, quelques désagréments. Elle procure un comportement sécuritaire, mais entraîne aussi un manque de rigidité limitant les applications de la robotique souple. Sans une rigidité minimale, il est impossible d’accomplir des opérations repérables et précises. La robotique souple a en fait un compromis majeur entre la capacité de chargement et la plage d’utilisation. Pour utiliser cette technologie dans le domaine médical, il est primordial d’ajouter un système permettant de moduler la rigidité du système pour inhiber ce compromis. Couplée avec un système de freinage granulaire, la robotique souple semble comporter l’ensemble des caractéristiques permettant d’accomplir des interventions au foie. Cette étude tend à démontrer que couplée à un système modulant la rigidité, la robotique souple peut être utilisée pour accomplir des opérations d’une façon précise et repérable, tout en demeurant sécuritaire. Le positionneur d’aiguilles développé est 100 % compatible avec l’Imagerie à Résonance Magnétique (IRM). La plage d’insertion du système permet de rejoindre l’entièreté du foie (1500 cm³), tout en maintenant une rigidité suffisante (3 N/mm) et en étant aussi précis que l’outil d’imagerie utilisée (1 mm). L’approche hybride consistant à développer un système activé de façon souple couplée à un module régulant sa rigidité permet d’obtenir à la fois les avantages d’une robotique compliante (souple) et conventionnelle (dure).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les langages de programmation typés dynamiquement tels que JavaScript et Python repoussent la vérification de typage jusqu’au moment de l’exécution. Afin d’optimiser la performance de ces langages, les implémentations de machines virtuelles pour langages dynamiques doivent tenter d’éliminer les tests de typage dynamiques redondants. Cela se fait habituellement en utilisant une analyse d’inférence de types. Cependant, les analyses de ce genre sont souvent coûteuses et impliquent des compromis entre le temps de compilation et la précision des résultats obtenus. Ceci a conduit à la conception d’architectures de VM de plus en plus complexes. Nous proposons le versionnement paresseux de blocs de base, une technique de compilation à la volée simple qui élimine efficacement les tests de typage dynamiques redondants sur les chemins d’exécution critiques. Cette nouvelle approche génère paresseusement des versions spécialisées des blocs de base tout en propageant de l’information de typage contextualisée. Notre technique ne nécessite pas l’utilisation d’analyses de programme coûteuses, n’est pas contrainte par les limitations de précision des analyses d’inférence de types traditionnelles et évite la complexité des techniques d’optimisation spéculatives. Trois extensions sont apportées au versionnement de blocs de base afin de lui donner des capacités d’optimisation interprocédurale. Une première extension lui donne la possibilité de joindre des informations de typage aux propriétés des objets et aux variables globales. Puis, la spécialisation de points d’entrée lui permet de passer de l’information de typage des fonctions appellantes aux fonctions appellées. Finalement, la spécialisation des continuations d’appels permet de transmettre le type des valeurs de retour des fonctions appellées aux appellants sans coût dynamique. Nous démontrons empiriquement que ces extensions permettent au versionnement de blocs de base d’éliminer plus de tests de typage dynamiques que toute analyse d’inférence de typage statique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alors que les activités anthropiques font basculer de nombreux écosystèmes vers des régimes fonctionnels différents, la résilience des systèmes socio-écologiques devient un problème pressant. Des acteurs locaux, impliqués dans une grande diversité de groupes — allant d’initiatives locales et indépendantes à de grandes institutions formelles — peuvent agir sur ces questions en collaborant au développement, à la promotion ou à l’implantation de pratiques plus en accord avec ce que l’environnement peut fournir. De ces collaborations répétées émergent des réseaux complexes, et il a été montré que la topologie de ces réseaux peut améliorer la résilience des systèmes socio-écologiques (SSÉ) auxquels ils participent. La topologie des réseaux d’acteurs favorisant la résilience de leur SSÉ est caractérisée par une combinaison de plusieurs facteurs : la structure doit être modulaire afin d’aider les différents groupes à développer et proposer des solutions à la fois plus innovantes (en réduisant l’homogénéisation du réseau), et plus proches de leurs intérêts propres ; elle doit être bien connectée et facilement synchronisable afin de faciliter les consensus, d’augmenter le capital social, ainsi que la capacité d’apprentissage ; enfin, elle doit être robuste, afin d’éviter que les deux premières caractéristiques ne souffrent du retrait volontaire ou de la mise à l’écart de certains acteurs. Ces caractéristiques, qui sont relativement intuitives à la fois conceptuellement et dans leur application mathématique, sont souvent employées séparément pour analyser les qualités structurales de réseaux d’acteurs empiriques. Cependant, certaines sont, par nature, incompatibles entre elles. Par exemple, le degré de modularité d’un réseau ne peut pas augmenter au même rythme que sa connectivité, et cette dernière ne peut pas être améliorée tout en améliorant sa robustesse. Cet obstacle rend difficile la création d’une mesure globale, car le niveau auquel le réseau des acteurs contribue à améliorer la résilience du SSÉ ne peut pas être la simple addition des caractéristiques citées, mais plutôt le résultat d’un compromis subtil entre celles-ci. Le travail présenté ici a pour objectifs (1), d’explorer les compromis entre ces caractéristiques ; (2) de proposer une mesure du degré auquel un réseau empirique d’acteurs contribue à la résilience de son SSÉ ; et (3) d’analyser un réseau empirique à la lumière, entre autres, de ces qualités structurales. Cette thèse s’articule autour d’une introduction et de quatre chapitres numérotés de 2 à 5. Le chapitre 2 est une revue de la littérature sur la résilience des SSÉ. Il identifie une série de caractéristiques structurales (ainsi que les mesures de réseaux qui leur correspondent) liées à l’amélioration de la résilience dans les SSÉ. Le chapitre 3 est une étude de cas sur la péninsule d’Eyre, une région rurale d’Australie-Méridionale où l’occupation du sol, ainsi que les changements climatiques, contribuent à l’érosion de la biodiversité. Pour cette étude de cas, des travaux de terrain ont été effectués en 2010 et 2011 durant lesquels une série d’entrevues a permis de créer une liste des acteurs de la cogestion de la biodiversité sur la péninsule. Les données collectées ont été utilisées pour le développement d’un questionnaire en ligne permettant de documenter les interactions entre ces acteurs. Ces deux étapes ont permis la reconstitution d’un réseau pondéré et dirigé de 129 acteurs individuels et 1180 relations. Le chapitre 4 décrit une méthodologie pour mesurer le degré auquel un réseau d’acteurs participe à la résilience du SSÉ dans lequel il est inclus. La méthode s’articule en deux étapes : premièrement, un algorithme d’optimisation (recuit simulé) est utilisé pour fabriquer un archétype semi-aléatoire correspondant à un compromis entre des niveaux élevés de modularité, de connectivité et de robustesse. Deuxièmement, un réseau empirique (comme celui de la péninsule d’Eyre) est comparé au réseau archétypique par le biais d’une mesure de distance structurelle. Plus la distance est courte, et plus le réseau empirique est proche de sa configuration optimale. La cinquième et dernier chapitre est une amélioration de l’algorithme de recuit simulé utilisé dans le chapitre 4. Comme il est d’usage pour ce genre d’algorithmes, le recuit simulé utilisé projetait les dimensions du problème multiobjectif dans une seule dimension (sous la forme d’une moyenne pondérée). Si cette technique donne de très bons résultats ponctuellement, elle n’autorise la production que d’une seule solution parmi la multitude de compromis possibles entre les différents objectifs. Afin de mieux explorer ces compromis, nous proposons un algorithme de recuit simulé multiobjectifs qui, plutôt que d’optimiser une seule solution, optimise une surface multidimensionnelle de solutions. Cette étude, qui se concentre sur la partie sociale des systèmes socio-écologiques, améliore notre compréhension des structures actorielles qui contribuent à la résilience des SSÉ. Elle montre que si certaines caractéristiques profitables à la résilience sont incompatibles (modularité et connectivité, ou — dans une moindre mesure — connectivité et robustesse), d’autres sont plus facilement conciliables (connectivité et synchronisabilité, ou — dans une moindre mesure — modularité et robustesse). Elle fournit également une méthode intuitive pour mesurer quantitativement des réseaux d’acteurs empiriques, et ouvre ainsi la voie vers, par exemple, des comparaisons d’études de cas, ou des suivis — dans le temps — de réseaux d’acteurs. De plus, cette thèse inclut une étude de cas qui fait la lumière sur l’importance de certains groupes institutionnels pour la coordination des collaborations et des échanges de connaissances entre des acteurs aux intérêts potentiellement divergents.