30 resultados para Bonne gouvernance
em Université Laval Mémoires et thèses électroniques
Resumo:
La Banque mondiale propose la bonne gouvernance comme la stratégie visant à corriger les maux de la mauvaise gouvernance et de faciliter le développement dans les pays en développement (Carayannis, Pirzadeh, Popescu & 2012; & Hilyard Wilks 1998; Leftwich 1993; Banque mondiale, 1989). Dans cette perspective, la réforme institutionnelle et une arène de la politique publique plus inclusive sont deux stratégies critiques qui visent à établir la bonne gouvernance, selon la Banque et d’autres institutions de Bretton Woods. Le problème, c’est que beaucoup de ces pays en voie de développement ne possèdent pas l’architecture institutionnelle préalable à ces nouvelles mesures. Cette thèse étudie et explique comment un état en voie de développement, le Commonwealth de la Dominique, s’est lancé dans un projet de loi visant l’intégrité dans la fonction publique. Cette loi, la Loi sur l’intégrité dans la fonction publique (IPO) a été adoptée en 2003 et mis en œuvre en 2008. Cette thèse analyse les relations de pouvoir entre les acteurs dominants autour de évolution de la loi et donc, elle emploie une combinaison de technique de l’analyse des réseaux sociaux et de la recherche qualitative pour répondre à la question principale: Pourquoi l’État a-t-il développé et mis en œuvre la conception actuelle de la IPO (2003)? Cette question est d’autant plus significative quand nous considérons que contrairement à la recherche existante sur le sujet, l’IPO dominiquaise diverge considérablement dans la structure du l’IPO type idéal. Nous affirmons que les acteurs "rationnels," conscients de leur position structurelle dans un réseau d’acteurs, ont utilisé leurs ressources de pouvoir pour façonner l’institution afin qu’elle serve leurs intérêts et ceux et leurs alliés. De plus, nous émettons l’hypothèse que: d’abord, le choix d’une agence spécialisée contre la corruption et la conception ultérieure de cette institution reflètent les préférences des acteurs dominants qui ont participé à la création de ladite institution et la seconde, notre hypothèse rivale, les caractéristiques des modèles alternatifs d’institutions de l’intégrité publique sont celles des acteurs non dominants. Nos résultats sont mitigés. Le jeu de pouvoir a été limité à un petit groupe d’acteurs dominants qui ont cherché à utiliser la création de la loi pour assurer leur légitimité et la survie politique. Sans surprise, aucun acteur n’a avancé un modèle alternatif. Nous avons conclu donc que la loi est la conséquence d’un jeu de pouvoir partisan. Cette recherche répond à la pénurie de recherche sur la conception des institutions de l’intégrité publique, qui semblent privilégier en grande partie un biais organisationnel et structurel. De plus, en étudiant le sujet du point de vue des relations de pouvoir (le pouvoir, lui-même, vu sous l’angle actanciel et structurel), la thèse apporte de la rigueur conceptuelle, méthodologique, et analytique au discours sur la création de ces institutions par l’étude de leur genèse des perspectives tant actancielles que structurelles. En outre, les résultats renforcent notre capacité de prédire quand et avec quelle intensité un acteur déploierait ses ressources de pouvoir.
Resumo:
Cette thèse se penche sur la rationalité sécuritaire qui organise les villes de Douala et Yaoundé. En effet, l’insécurité urbaine devient une question très préoccupante, encore plus dans les villes des pays du Sud notamment les villes camerounaises où la recrudescence de la criminalité et de la violence ont donné lieu à des initiatives de sécurisation de la part de l’État et de la population. Sur le plan de la théorie, plusieurs approches nous permettent de nous projeter dans l’environnement sécuritaire des villes à l’étude. Nous considérons les villes de Douala et Yaoundé comme des lieux de production culturelle où se construisent à la faveur des migrations, à partir de diverses cultures et de comportements issus des villages d’origine, des formes d’identités hybrides et des territoires urbains diversifiés. Cela donne donc à réfléchir sur les modes de gouvernance locale, à l’échelle des quartiers, dans le but de comprendre les modalités d’encadrement de cette dynamique culturelle urbaine. Dans le même ordre d’idées, la gouvernance locale fait appel aux acteurs, dans leurs rôles et leurs logiques. Ces logiques s’observent dans leurs dimensions cognitives et leurs rapports avec l’espace. Les dimensions cognitives évoquent les perceptions, le vécu et les représentations subjectives qui sont associées à l’insécurité. Ainsi, le sentiment d’insécurité, la peur, la marginalisation, la violence et la criminalisation sont des phénomènes qui laissent entrevoir des populations défavorisées, victimes d’insécurité. C’est à côté de ces dernières que se manifestent les logiques d’acteurs associées à l’espace, qui ouvrent l’observation sur l’informalité et la ségrégation non seulement comme instruments de contrôle de l’espace urbain, mais également comme cadres de production d’espaces sécurisés. L’informalité et la ségrégation sont aussi favorables au développement des identités, à la construction d’utopies, ces visions mélioratives qui motivent et transforment les acteurs. Ce sont ces logiques d’acteurs dans leurs rapports avec l’espace qui justifient les initiatives de sécurisation. Finalement, c’est dans cette dynamique de transformation que les acteurs entrent en processus de subjectivation pour se produire comme sujets. Sur le plan méthodologique, cette thèse repose sur une ethnographie critique et comparative de la sécurité et sur l’approche de l’action sociale, qui invite à s’attarder aux interactions sociales, pour rendre compte de la rationalité sécuritaire. Étudier la sécurité requiert de s’attarder à l’échelle des quartiers, objets principaux de la sécurisation et espaces d’expression de l’informalité. Les quartiers sont encadrés par les chefferies urbaines, dont les systèmes de gestion constituent la gouvernance locale. Face à la question de la sécurité, cette gouvernance se prononce entre autres en fonction de son identité, de sa culture et de ses représentations. Elle côtoie les logiques étatiques dont les techniques et les stratégies d’organisation matérialisent les politiques de sécurité. Douala et Yaoundé présentent des approches populaires de sécurisation qui diffèrent sur le plan de l’organisation locale des quartiers et du tempérament populaire. Elles se rapprochent par les logiques d’acteurs et la motivation que ces derniers ont à se produire en sujets. La recherche a permis de constater qu’une forme de rationalité régit l’ensemble des dynamiques et des stratégies de production de la sécurité qui ont cours à Douala et Yaoundé. Cette rationalité passe par une pluralité de logiques de sécurité, elles-mêmes tributaires de nombreux phénomènes qui contribuent à la production de l’insécurité, mais aussi à celle de la sécurité. En effet, les migrations de la campagne vers la ville, l’informalité, la ségrégation et la présence de gangs locaux sont des réalités urbaines qui donnent une forme particulière à l’insécurité, mais invitent également à une réadaptation des techniques et des groupes d’acteurs impliqués dans la production de la sécurité. Il ressort que la rationalité sécuritaire, cette intelligence de gouvernement qui s’organise dans les dispositifs de l’offre publique de sécurité, suscite aussi dans les procédés des acteurs populaires, des techniques d’identification aux forces de l’ordre. Dans son processus, elle aboutit à la production de sujets sécurisés et de sécurité. En saisissant les productions humaines comme des activités innovantes, nous comprenons que la sécurisation procède par rapprochement entre les forces de l’ordre et les populations, par la mise en oeuvre de mécanismes mis en place pour répondre à la menace mais aussi par la « confiscation de la sécurité » pour les besoins d’une élite. Ensuite, elle représente une instance de subjectivation où l’innovation se matérialise et où les acteurs se réalisent, créent la sécurité et recréent la ville. Finalement, cette thèse révèle une pluralité de logiques de sécurité construites autour d’une même rationalité sécuritaire.
Resumo:
C’est en réponse aux plus récentes crises financières que plusieurs processus réglementaires – dont certains constituent les objets d’étude de cette thèse – ont été déployés pour concevoir et implanter diverses réformes « d’amélioration » au sein de la pratique professionnelle des auditeurs financiers. Tant la crise du début des années 2000 que celle de 2007-2008 auraient attiré de vives critiques à l’égard du travail des auditeurs et de leur contribution (prétendument défaillante) au sein du fonctionnement des marchés des capitaux. Considérant leur fonction de « chien de garde » qui est censée assurer, avant tout, la protection du public au sein de ces marchés, il semblait inévitable que leur travail soit, dans une certaine mesure, remis en doute à travers les processus de révision réglementaire mis en place. C’est ainsi que chacun des trois articles qui composent cette thèse offre une analyse de différents aspects – tels que la mise en place, le déroulement, la nature et la substance des discours et des résultats – liés à ces processus de révision réglementaire qui entourent la pratique professionnelle des auditeurs au lendemain des crises financières. En somme, en plus d’indiquer comment ces processus ne sont point à l’abri de controverses, les conclusions de cette thèse inciteront à ce qu’une attention sérieuse soit portée à leur égard afin de préserver le bienfondé de la profession des comptables et des auditeurs. Alors que, dans le premier article, il sera question d’illustrer l’infiltration (critiquable) d’un discours néolibéral au sein des débats qui entourent les processus de révision réglementaire dont il est question, dans le deuxième article, il sera question d’exposer, au sein de ces processus, un mécanisme de production de mythes prônant un certain statu quo. Par ailleurs, dans le dernier article, en plus de mettre en évidence le fait que les approches de gouvernance déployées à travers ces processus de révision réglementaire ne sont pas suffisamment englobantes, on pourra aussi prendre conscience de l’inféodation de l’expertise de l’audit face à son environnement (et plus précisément, face aux expertises de la normalisation comptable et de la financiarisation de l’économie). Sous un regard critique, et à travers des analyses qualitatives, chacun des articles de cette thèse permettra de remettre en question certaines facettes des processus réglementaires et institutionnels qui entourent le champ de la comptabilité et de l’audit.
Resumo:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Resumo:
Cette recherche qualitative a pour objectif de contribuer aux connaissances sur le trouble d’accumulation compulsive (TAC) afin de donner des assises empiriques à la pratique des travailleurs sociaux, techniciens en travail social, éducateurs spécialisés, psychoéducateurs et autres professionnels intervenant au sein des services sociaux. Par extension, elle vise aussi à fournir des pistes pour l’amélioration des services offerts aux personnes aux prises avec ce problème. La question de départ de cette recherche était : Comment les usagers des CSSS ayant eu des services pour un TAC perçoivent et évaluent-ils les interventions effectuées par les intervenants sociaux? Afin d’y répondre, des entrevues individuelles semi-dirigées ont été effectuées auprès d’usagers de Centres de santé et de services sociaux de Québec et ses environs (CSSS Alphonse-Desjardins, Québec-Nord, Portneuf et de la Vieille-Capitale). Ces usagers ont complété le questionnaire Working Alliance Inventory-SR (WAI-SR), version française. Des intervenants sociaux des CSSS ont également participé à des groupes de discussion, afin de compléter et contextualiser les données obtenues. Résultats : Le TAC est une expérience et une situation de vie avant d’être une condition au sens psychiatrique, et les comportements d’accumulation s’inscrivent dans les perceptions que les usagers ont d’eux-mêmes, de leurs priorités et objectifs et des conditions dans lesquelles ils veulent vivre. Les usagers rencontrés ont majoritairement une opinion favorable des services psychosociaux des CSSS, ce qui peut être lié à un bon niveau de reconnaissance de la problématique. La perception favorable des services semble liée à une bonne alliance thérapeutique. Autant les usagers que les intervenants sociaux percevaient qu’il y avait un manque de ressources dans la région de Québec pour répondre aux besoins spécifiques des personnes aux prises avec des problèmes inhérents au TAC. Mots-clés : accumulation compulsive, santé mentale, alliance thérapeutique, intervention psychosociale, perception services, Centre local de services communautaires.
Resumo:
Rendre compte des conditions d’émergence de la lutte contre l’obésité, c’est aussi rendre compte d’un corps socialement attendu. Ce corps socialement attendu, en Occident, prend racine à la Renaissance dans les discours du peintre Alberti et le corps de justes proportions, de l’éducateur Mercurialis et le corps transformable à volonté, et avec le médecin Vésale et le corps réparable : il s’agit là de trois constantes qui traverseront toutes les époques. Ce corps socialement attendu sera fédéré sous la contenance de soi et la gouvernance de soi issues de la Réforme. De là, une image sociale du corps émerge qui se doit d’être contenu et gouverné, d’où les jugements moraux de plus en plus en sévères portés sur le corps en excès de masse adipeuse. Au XVIIe siècle, dans la foulée des traités de civilités, c’est le passage de l’idée d’être un corps à celle d’avoir un corps dont l’individu est personnellement et socialement responsable, qui culminera, au milieu du XIXe siècle, avec l’introduction de l’indice de masse corporelle, du pèse-personne, du miroir et de la mode : l’individu est désormais maître et esclave de son image des pieds à la tête. Cette quantification de soi aura comme impact de confronter directement l’individu à son propre poids et à ses propres comportements, d’où la mise en place d’une batterie d’interventions à déployer sur le corps pour le maintenir dans une fourchette de poids idéal. Au milieu du XXe siècle, avec la montée du complexe agroalimentaire, de la montée de l’industrie de la restauration rapide, de la transformation profonde du tissu urbain, de l’arrivée massive de l’automobile, de la transformation des emplois de plus en plus orientées vers le secteur tertiaire, se met graduellement en place ce qu’il est convenu d’appeler l’infrastructure de la prise de poids qui entraînera dans son sillage tout un discours de la modération. Le XXIe siècle se donnera pour mission non pas de modifier l’infrastructure de la prise de poids mise en place au XXe siècle, mais de donner à l’individu les moyens de lutter contre la prise de poids à travers le discours de la saine alimentation et de la discipline personnelle. L’obèse ou la personne en simple surpoids est désormais totalement responsable de sa propre condition.
Resumo:
Afin de pallier au manque d’outils de dépistage efficaces et adaptés à la population âgée, le Geriatric Anxiety Inventory (GAI) et une forme courte (GAI-SF) ont été développés pour évaluer la sévérité des symptômes anxieux chez les aînés. La présente étude cherchait à évaluer les propriétés psychométriques de la version canadienne-française du GAI dans sa forme complète (GAI-FC) et courte (GAI-FC-SF) auprès de la population âgée québécoise francophone. Trois cent trente et une personnes de 65 ans et plus vivant dans la communauté ont participé à cette étude. Les propriétés psychométriques s’avèrent satisfaisantes pour le GAI-FC et le GAI-FC-SF avec, respectivement, une cohérence interne satisfaisante (α = ,94 et ,83), une validité convergente adéquate (r = ,50 à ,86 avec des instruments de mesure évaluant des concepts similaires ou reliés à l’anxiété), une bonne fidélité test-retest (r = ,89 et ,85) ainsi qu’une structure unifactorielle. Les résultats de cette étude appuient l’utilisation du GAI-FC et du GAI-FC-SF pour l’évaluation de l’anxiété chez les aînés québécois. Le GAI-FC-SF semble une alternative intéressante au GAI-FC comme outil de dépistage lorsque le temps disponible pour l’évaluation est limité. Mots-clés: Geriatric Anxiety Inventory, aînés, anxiété, trouble anxieux, instrument d’évaluation.
Resumo:
Il semble régner aujourd’hui une certaine confusion lorsqu’on aborde des concepts et réalités politiques tels que le pouvoir, l’autorité, la domination, voire même la violence. De plus, les sociétés démocratiques et libérales contemporaines s’accordent de plus en plus avec un modèle de gouvernance individualiste et conformiste, ce qui semble limiter significativement toute forme de sens commun. En tant que réalité et catégorie spécifique du politique, l’autorité semble à cet égard s’effacer pour laisser place à une nouvelle figure. Celle-ci combine différents concepts et réalité du politique tels qu’autorité, pouvoir, violence, force, puissance souvent incarné par le chef ou le leader politique, ou encore est institutionnalisée au sein du gouvernement en place. La combinaison de ces différents concepts pour n’en former qu’un rend plutôt confuse notre compréhension de l’autorité et rend conflictuel sa relation avec l’égalité. Pour Hannah Arendt, la disparition de la catégorie politique de l’autorité s’exprime par l’intermédiaire d’une crise. Une crise marquée par une rupture du sens commun qui met en échec non seulement l’égalité entre les citoyennes et citoyens, mais aussi notre façon de concevoir le politique dans son ensemble. Réfléchir à la crise de l’autorité nous amèneras donc à repenser le politique, et ce faisant, les notions d’autorité et d’égalité. Dans ce mémoire, nous soutenons qu’une forme d’équilibre entre l’autorité et l’égalité est toujours possible, et même nécessaire dans notre monde politique contemporain.
Resumo:
Un bon fonctionnement du coeur humain est primordial pour maintenir une bonne qualité de vie. Cependant, lorsque le coeur est défaillant, certaines interventions chirurgicales s’avèrent nécessaires pour prolonger l’espérance de vie. Dans le cadre d’un projet multidisciplinaire reliant le génie mécanique avec le domaine biomédical, notre équipe travaille sur la fabrication de valves cardiaques conçues entièrement par génie tissulaire. Pour y parvenir, il est important d’obtenir des propriétés mécaniques optimales pour les tissus biologiques. Afin d’obtenir ces propriétés mécaniques, un outil important a été fabriqué lors d’une étude antérieure : le bioréacteur cardiaque. Le bioréacteur cardiaque permet de reproduire l’environnement physiologique du coeur, notamment les conditions de débit et de pression. Il est crucial de bien contrôler ces conditions, car celles-ci jouent un rôle important lors du conditionnement des substituts valvulaires. Toutefois, il est complexe de contrôler simultanément ces deux conditions de manière efficace. C’est pourquoi notre équipe s’est concentrée sur le développement d’une nouvelle stratégie de contrôle afin que le bioréacteur puisse reproduire le plus fidèlement possible l’environnement physiologique. Plusieurs techniques de contrôle ont été essayés jusqu’à maintenant. Par contre, leur précision était généralement limitée. Une nouvelle approche a donc été envisagée et est présentée dans ce mémoire. Cette nouvelle approche pour le contrôle du bioréacteur est basée sur un type d’algorithme bien connu mais encore très peu utilisé en contrôle : les algorithmes génétiques. Cette approche prometteuse nous a permis de produire des résultats dépassant tous ceux obtenus jusqu’à maintenant pour l’une des deux conditions, soit le débit physiologique.
Resumo:
Il existe désormais une grande variété de lentilles panoramiques disponibles sur le marché dont certaines présentant des caractéristiques étonnantes. Faisant partie de cette dernière catégorie, les lentilles Panomorphes sont des lentilles panoramiques anamorphiques dont le profil de distorsion est fortement non-uniforme, ce qui cause la présence de zones de grandissement augmenté dans le champ de vue. Dans un contexte de robotique mobile, ces particularités peuvent être exploitées dans des systèmes stéréoscopiques pour la reconstruction 3D d’objets d’intérêt qui permettent à la fois une bonne connaissance de l’environnement, mais également l’accès à des détails plus fins en raison des zones de grandissement augmenté. Cependant, à cause de leur complexité, ces lentilles sont difficiles à calibrer et, à notre connaissance, aucune étude n’a réellement été menée à ce propos. L’objectif principal de cette thèse est la conception, l’élaboration et l’évaluation des performances de systèmes stéréoscopiques Panomorphes. Le calibrage a été effectué à l’aide d’une technique établie utilisant des cibles planes et d’une boîte à outils de calibrage dont l’usage est répandu. De plus, des techniques mathématiques nouvelles visant à rétablir la symétrie de révolution dans l’image (cercle) et à uniformiser la longueur focale (cercle uniforme) ont été développées pour voir s’il était possible d’ainsi faciliter le calibrage. Dans un premier temps, le champ de vue a été divisé en zones à l’intérieur desquelles la longueur focale instantanée varie peu et le calibrage a été effectué pour chacune d’entre elles. Puis, le calibrage général des systèmes a aussi été réalisé pour tout le champ de vue simultanément. Les résultats ont montré que la technique de calibrage par zone ne produit pas de gain significatif quant à la qualité des reconstructions 3D d’objet d’intérêt par rapport au calibrage général. Cependant, l’étude de cette nouvelle approche a permis de réaliser une évaluation des performances des systèmes stéréoscopiques Panomorphes sur tout le champ de vue et de montrer qu’il est possible d’effectuer des reconstructions 3D de qualité dans toutes les zones. De plus, la technique mathématique du cercle a produit des résultats de reconstructions 3D en général équivalents à l’utilisation des coordonnées originales. Puisqu’il existe des outils de calibrage qui, contrairement à celui utilisé dans ce travail, ne disposent que d’un seul degré de liberté sur la longueur focale, cette technique pourrait rendre possible le calibrage de lentilles Panomorphes à l’aide de ceux-ci. Finalement, certaines conclusions ont pu être dégagées quant aux facteurs déterminants influençant la qualité de la reconstruction 3D à l’aide de systèmes stéréoscopiques Panomorphes et aux caractéristiques à privilégier dans le choix des lentilles. La difficulté à calibrer les optiques Panomorphes en laboratoire a mené à l’élaboration d’une technique de calibrage virtuel utilisant un logiciel de conception optique et une boîte à outils de calibrage. Cette approche a permis d’effectuer des simulations en lien avec l’impact des conditions d’opération sur les paramètres de calibrage et avec l’effet des conditions de calibrage sur la qualité de la reconstruction. Des expérimentations de ce type sont pratiquement impossibles à réaliser en laboratoire mais représentent un intérêt certain pour les utilisateurs. Le calibrage virtuel d’une lentille traditionnelle a aussi montré que l’erreur de reprojection moyenne, couramment utilisée comme façon d’évaluer la qualité d’un calibrage, n’est pas nécessairement un indicateur fiable de la qualité de la reconstruction 3D. Il est alors nécessaire de disposer de données supplémentaires pour juger adéquatement de la qualité d’un calibrage.
Resumo:
L’ingénierie des biomatériaux a connu un essor prodigieux ces dernières décennies passant de matériaux simples à des structures plus complexes, particulièrement dans le domaine cardiovasculaire. Cette évolution découle de la nécessité des biomatériaux de permettre la synergie de différentes propriétés, dépendantes de leurs fonctions, qui ne sont pas forcément toutes compatibles. Historiquement, les premiers matériaux utilisés dans la conception de dispositifs médicaux étaient ceux présentant le meilleur compromis entre les propriétés physico-chimiques, mécaniques et biologiques que nécessitait leur application. Cependant, il se peut qu’un tel dispositif possède les bonnes propriétés physico-chimiques ou mécaniques, mais que sa biocompatibilité soit insuffisante induisant ainsi des complications cliniques. Afin d’améliorer ces propriétés biologiques tout en conservant les propriétés de volume du matériau, une solution est d’en modifier la surface. L’utilisation d’un revêtement permet alors de moduler la réponse biologique à l’interface biomatériau-hôte et de diminuer les effets indésirables. Ces revêtements sont optimisés selon deux critères principaux : la réponse biologique et la réponse mécanique. Pour la réponse biologique, les deux approches principales sont de mettre au point des revêtements proactifs qui engendrent l’adhérence, la prolifération ou la migration cellulaire, ou passifs, qui, principalement, sont inertes et empêchent l’adhérence de composés biologiques. Dans certains cas, il est intéressant de pouvoir favoriser certaines cellules et d’en limiter d’autres, par exemple pour lutter contre la resténose, principalement due à la prolifération incontrôlée de cellules musculaires lisses qui conduit à une nouvelle obstruction de l’artère, suite à la pose d’un stent. La recherche sur les revêtements de stents vise, alors, à limiter la prolifération de ces cellules tout en facilitant la ré-endothélialisation, c’est-à-dire en permettant l’adhérence et la prolifération de cellules endothéliales. Dans d’autres cas, il est intéressant d’obtenir des surfaces limitant toute adhérence cellulaire, comme pour l’utilisation de cathéter. Selon leur fonction, les cathéters doivent empêcher l’adhérence cellulaire, en particulier celle des bactéries provoquant des infections, et être hémocompatibles, principalement dans le domaine vasculaire. Il a été démontré lors d’études précédentes qu’un copolymère à base de dextrane et de poly(méthacrylate de butyle) (PBMA) répondait aux problématiques liées à la resténose et qu’il possédait, de plus, une bonne élasticité, propriété mécanique importante due à la déformation que subit le stent lors de son déploiement. L’approche de ce projet était d’utiliser ce copolymère comme revêtement de stents et d’en améliorer l’adhérence à la surface en formant des liens covalents avec la surface. Pour ce faire, cela nécessitait l’activation de la partie dextrane du copolymère afin de pouvoir le greffer à la surface aminée. Il était important de vérifier pour chaque étape l’influence des modifications effectuées sur les propriétés biologiques et mécaniques des matériaux obtenus, mais aussi d’un point de vue de la chimie, l’influence que cette modification pouvait induire sur la réaction de copolymérisation. Dans un premier temps, seul le dextrane est considéré et est modifié par oxydation et carboxyméthylation puis greffé à des surfaces fluorocarbonées aminées. L’analyse physico-chimique des polymères de dextrane modifiés et de leur greffage permet de choisir une voie de modification préférentielle qui n’empêchera pas ultérieurement la copolymérisation. La carboxyméthylation permet ainsi d’obtenir un meilleur recouvrement de la surface tout en conservant la structure polysaccharidique du dextrane. Le greffage du dextrane carboxyméthylé (CMD) est ensuite optimisé selon différents degrés de modification, tenant compte aussi de l’influence que ces modifications peuvent induire sur les propriétés biologiques. Finalement, les CMD précédemment étudiés, avec des propriétés biologiques définies, sont copolymérisés avec des monomères de méthacrylate de butyle (BMA). Les copolymères ainsi obtenus ont été ensuite caractérisés par des analyses physico-chimiques, biologiques et mécaniques. Des essais préliminaires ont montrés que les films de copolymères étaient anti-adhérents vis-à-vis des cellules, ce qui a permis de trouver de nouvelles applications au projet. Les propriétés élastiques et anti-adhérentes présentées par les films de copolymères CMD-co-PBMA, les rendent particulièrement intéressants pour des applications comme revêtements de cathéters.
Resumo:
La théorie biodémographique liée à l’âge prédit un compromis entre l’allocation reproductrice au début de la vie et la reproduction tardive, la survie, ou ces deux composantes de la valeur adaptative à la fois. Actuellement, la notion de compromis a été démontrée par plusieurs études en milieu naturel. Par contre, l’effet des conditions environnementales et de la qualité des individus a rarement été étudié. Grâce aux données longitudinales récoltées dans la population de chèvres de montagne (Oreamnos americanus) de Caw Ridge, Alberta, nous avons pu examiner l’influence de l’âge à la première reproduction (APR) et du succès reproducteur au début de la vie (SRD) sur la longévité et sur le succès reproducteur tardif, en tenant compte des conditions environnementales natales et de la qualité des individus. Contrairement à nos prédictions, nous n’avons pas détecté la présence d’un compromis entre l’allocation reproductrice au début de la vie et la performance tardive dans cette population. Au contraire, l’APR et le SRD avaient des effets directs et faiblement positifs sur le succès reproducteur tardif. La densité de population à la naissance d’une femelle a fortement réduit le succès reproducteur tardif de manière directe. Elle l’affectait également de manière indirecte par son effet sur l’APR et le SRD. La densité était le seul facteur déterminant de la longévité, par un effet direct et fortement négatif. Tel que démontré dans des études précédentes sur la même population, les femelles de bonne qualité avaient un SRD élevé par rapport aux femelles de mauvaise qualité. Ces résultats fournissent une vision intégrée des compromis au début et à la fin de la vie, en soulignant l’importance de tenir compte des conditions environnementales, qui pourraient engendrer des implications à long terme sur la dynamique des populations.
Resumo:
Au cours des dernières décennies, les restructurations d’entreprises ont connu une transformation majeure. En plus des restructurations ponctuelles, de type « crise » dans des secteurs de l’économie en déclin, il est possible de constater des restructurations de type « permanent » dont l’objectif principal est la quête de profit et l’augmentation de la productivité de l’entreprise. Perçus comme nuisibles à la rentabilité des entreprises, la syndicalisation, la négociation collective et les moyens de pression, poussent ainsi certaines entreprises à se restructurer. Les restructurations d’entreprises, produit de l’exercice de la liberté d’entreprendre, impliquent des conséquences importantes sur l’emploi des travailleurs, en plus d’affecter à bien des égards leur liberté d’association. Dans cette perspective, il est pertinent de s’interroger sur l’articulation entre la liberté d’entreprendre et la liberté d’association dans le contexte de restructurations d’entreprises. Les différentes théories du droit s’accordent quant à l’importance de la cohérence du système juridique tant à l’interne qu’à l’externe. L’essentiel de notre analyse repose, en conséquence, sur un souci de cohérence du système juridique lors de l’affrontement des libertés d’entreprendre et d’association dans le cadre de restructurations d’entreprises, par le biais, entre autre, de l’étude de la juridicité et de la normativité de ces principes du droit. D’une part, la liberté d’association est un principe du droit à statut constitutionnel, d’ordre public et qui occupe une place importante en droit international. D’autre part, la liberté d’entreprendre est un principe du droit implicite, dont les fondements et la mise en œuvre demeurent ambigus. Pourtant notre étude démontre que la jurisprudence accorde une interprétation restrictive à la liberté d’association et large à la liberté d’entreprendre. Cette réalité accorde à la liberté d’entreprendre une mainmise sur la liberté d’association, particulièrement dans les cas de restructurations d’entreprises. Il n’y a qu’à citer comme exemple le droit de cesser de faire affaire même pour des motifs socialement condamnables, énoncé à plusieurs reprises par la Cour suprême du Canada. Le principe de cohérence du système juridique devrait nous amener à une interprétation plus large de la liberté d’association afin de respecter la hiérarchie des droits et d’autres principes généraux du droit, tels que l’égalité, la dignité et la bonne foi, et ce, même si cette interprétation a parfois pour effet de restreindre la liberté d’entreprendre dans le contexte de restructurations d’entreprises.
Resumo:
L’usine Niobec traite un minerai de pyrochlore porteur de niobium pour produire le ferro-niobium utilisé pour la fabrication d’acier. L’usine récupère environ 60% des minéraux de niobium. Les rejets contiennent du niobium et d’autres espèces minérales potentiellement valorisables. Les travaux présentés dans ce mémoire visent à identifier les espèces pouvant être valorisées dans les rejets de Niobec dont les plus prometteurs sont les éléments de terres rares, les minéraux de niobium et l’apatite. Dans le but de concentrer l’apatite des rejets de l’usine, une analyse chimique des rejets a permis de cibler comme flux d’intérêt les particules de dimension supérieure à 0,038mm dans le concentré de carbonates et les rejets du circuit de flottation du pyrochlore. La méthode utilisée pour valoriser les phosphates est la flottation. Les meilleurs résultats ont été obtenus par flottation directe des minéraux de phosphate du concentré de carbonates dans les rejets de Niobec. Le collecteur utilisé est un acide gras de type AERO 6493 avec un mélange d’amidon de tapioca et de NaOH utilisé comme déprimant pour les carbonates. Ces conditions ont permis de produire un concentré d’apatite titrant entre 30 à 32 % P2O5 avec un rendement de 50 à 60% du P2O5 contenue dans le concentré de carbonates. La teneur en MgO dans le concentré d’apatite est comprise entre 3 et 4% comparativement à 15% dans l’alimentation. Puisque le MgO est principalement associé à la dolomie ces résultats confirment une bonne dépression de ce minéral lors de la flottation de l’apatite du concentré de carbonates. La flottation de l’apatite à partir des rejets du pyrochlore n’a pas permis d’obtenir un concentré de valeur commerciale. Le meilleur résultat obtenu lors des essais de flottation sur les rejets pyrochlore correspond à une teneur de 14%avec un rendement de 53% P2O5. Les résultats obtenus montrent toutefois le potentiel associé à la récupération des minéraux de phosphates et justifient la poursuite des travaux, cette fois, moins exploratoires que les travaux rapportés dans ce mémoire.
Resumo:
La pomme de terre est l’une des cultures les plus exigeantes en engrais et elle se cultive généralement sur des sols légers ayant de faibles réserves en N, P, K, Ca et Mg. Ces cinq éléments sont essentiels à la croissance des plants, à l’atteinte des bons rendements et à l’obtention de bonne qualité des tubercules de pomme de terre à la récolte et à l’entreposage. La recherche d’un équilibre entre ces cinq éléments constitue l’un des défis de pratiques agricoles de précision. La collecte de 168 échantillons de feuilles de pommes de terre selon une grille de 40 m × 60 m (densité d’échantillonnage de 2,9 échantillons ha-1) dans un champ de pommes de terre de 54 ha au Saguenay-Lac-Saint-Jean et la détermination de leur teneur en N, P, K, Ca et Mg au stade début floraison, jumelée à une lecture de l’indice de chlorophylle avec SPAD-502, a permis d’établir les faits suivants : parmi tous les indicateurs de diagnostic foliaire selon les 3 approches connues VMC, DRIS et CND, le contraste logarithmique entre les deux éléments nutritifs type anioniques (N et P) vs les trois éléments type cationiques (K, Ca et Mg), noté ilr (log ratio isométrique) du coda (Compositional Data Analysis) est l’indicateur le plus fortement relié à la lecture SPAD-502 (r=0,77). L’étude géostatique spatiale appliquée au Coda a montré une grande similitude entre le CND-ilr (anions vs cations) et la lecture SPAD-502. Ce CND-ilr devrait être interprété en termes de fertilisation de démarrage (N+P), en lien avec les apports des cations sous forme d’engrais (K, Ca et Mg) ou d’amendement (Ca et Mg).