394 resultados para Critères d’efficacité
Resumo:
Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant associée à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit l’emploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèle décrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.
Resumo:
Les sociétés contemporaines affrontent le défi de s’intégrer et s’adapter à un processus de transformation qui vise la construction de sociétés du savoir. Ce processus doit notamment son élan aux institutions d’enseignement supérieur qui constituent un espace privilégié où on bâtit l’avenir d’une société à partir des savoirs et celles-ci doivent faire face aux nouveaux enjeux sociaux, économiques et politiques qui affectent tous les pays du monde. La quête de la qualité devient donc un processus constant d’amélioration et surgit l’intérêt par l’évaluation au niveau universitaire. Par conséquent, cette recherche s’attache au sujet de l’évaluation à l’enseignement supérieur et s’enfonce dans le débat actuel sur les changements provoqués par les évaluations institutionnelles produisant un défi puisqu’il s’agit d’une prise de conscience fondée sur la culture de la qualité. L’autoévaluation est une stratégie permettant aux institutions d’enseignement supérieur mener des processus intégraux de valorisation dont le but est d’identifier les faiblesses des facteurs qui ont besoin d’améliorer. Le résultat conduit à l’élaboration et à la mise en œuvre d’un plan d’amélioration pour l'institution, programme académique ou plan d’études. À travers l’orientation du modèle d’évaluation systémique CIPP de Stufflebeam (1987), on a pu analyser de façon holistique la mise en place de l’autoévaluation depuis son contexte, planification, processus et produit. Ainsi les objectifs de la thèse visent l’identification du développement de la deuxième autoévaluation afin d’obtenir une reconnaissance de haute qualité et effectuer la mise en œuvre du plan d’amélioration auprès des programmes académiques de Licence en Comptabilité et Gestion de l’entreprise de la Faculté de Sciences de l’Administration de l’Université du Valle en Colombie. À travers l’appropriation de la théorie Neo-institutionnelle les changements apparus après l’autoévaluation ont été également analysés et interprétés et ont ainsi permis l’achèvement des fins de la recherche. La méthodologie développe la stratégie de l’étude de cas dans les deux programmes académiques avec une approche mixte où la phase qualitative des entretiens semi-structurés est complémentée par la phase quantitative des enquêtes. Des documents institutionnels des programmes et de la faculté ont aussi été considérés. Grâce à ces trois instruments ont pu obtenir plus d’objectivité et d’efficacité pendant la recherche. Les résultats dévoilent que les deux programmes ciblés ont recouru à des procédés et à des actions accordées au modèle de l’Université du Valle quoiqu’il ait fallu faire des adaptations à leurs propres besoins et pertinence ce qui a permis de mener à terme la mise en œuvre du processus d’autoévaluation et ceci a donné lieu à certains changements. Les composantes Processus Académiques et Enseignants sont celles qui ont obtenu le plus fort développement, parmi celles-ci on trouve également : Organisation, Administration et Gestion, Ressources Humaines, Physiques et Financières. D’autre part, parmi les composantes moins développées on a : Anciens Étudiants et Bienêtre Institutionnel. Les conclusions ont révélé que se servir d’un cadre institutionnel fort donne du sens d’identité et du soutien aux programmes. Il faut remarquer qu’il est essentiel d’une part élargir la communication de l’autoévaluation et ses résultats et d’autre part effectuer un suivi permanent des plans d’amélioration afin d’obtenir des changements importants et produire ainsi un enracinement plus fort de la culture de la qualité et l’innovation auprès de la communauté académique. Les résultats dégagés de cette thèse peuvent contribuer à mieux comprendre tant la mise en œuvre de l’autoévaluation et des plans d’amélioration aussi que les aspects facilitateurs, limitants, les blocages aux processus d’évaluation et la génération de changements sur les programmes académiques. Dans ce sens, la recherche devient un guide et une réflexion à propos des thèmes où les résultats sont très faibles. Outre, celle-ci révèle l’influence des cadres institutionnels ainsi que les entraves et tensions internes et externes montrant un certain degré d’agencement par le biais de stratégies de la part des responsables de la prise de décisions dans les universités. On peut déduire que la qualité, l’évaluation, le changement et l’innovation sont des concepts inhérents à la perspective de l’apprentissage organisationnel et à la mobilité des savoirs.
Resumo:
La formation est une stratégie clé pour le développement des compétences. Les entreprises continuent à investir dans la formation et le développement, mais elles possèdent rarement des données pour évaluer les résultats de cet investissement. La plupart des entreprises utilisent le modèle Kirkpatrick/Phillips pour évaluer la formation en entreprise. Cependant, il ressort de la littérature que les entreprises ont des difficultés à utiliser ce modèle. Les principales barrières sont la difficulté d’isoler l’apprentissage comme un facteur qui a une incidence sur les résultats, l’absence d’un système d’évaluation utile avec le système de gestion de l’apprentissage (Learning Management System - LMS) et le manque de données standardisées pour pouvoir comparer différentes fonctions d’apprentissage. Dans cette thèse, nous proposons un modèle (Analyse, Modélisation, Monitoring et Optimisation - AM2O) de gestion de projets de formation en entreprise, basée sur la gestion des processus d’affaires (Business Process Management - BPM). Un tel scénario suppose que les activités de formation en entreprise doivent être considérées comme des processus d’affaires. Notre modèle est inspiré de cette méthode (BPM), à travers la définition et le suivi des indicateurs de performance pour gérer les projets de formation dans les organisations. Elle est basée sur l’analyse et la modélisation des besoins de formation pour assurer l’alignement entre les activités de formation et les objectifs d’affaires de l’entreprise. Elle permet le suivi des projets de formation ainsi que le calcul des avantages tangibles et intangibles de la formation (sans coût supplémentaire). En outre, elle permet la production d’une classification des projets de formation en fonction de critères relatifs à l’entreprise. Ainsi, avec assez de données, notre approche peut être utilisée pour optimiser le rendement de la formation par une série de simulations utilisant des algorithmes d’apprentissage machine : régression logistique, réseau de neurones, co-apprentissage. Enfin, nous avons conçu un système informatique, Enterprise TRaining programs Evaluation and Optimization System - ETREOSys, pour la gestion des programmes de formation en entreprise et l’aide à la décision. ETREOSys est une plateforme Web utilisant des services en nuage (cloud services) et les bases de données NoSQL. A travers AM2O et ETREOSys nous résolvons les principaux problèmes liés à la gestion et l’évaluation de la formation en entreprise à savoir : la difficulté d’isoler les effets de la formation dans les résultats de l’entreprise et le manque de systèmes informatiques.
Resumo:
L’interrelation entre le droit civil et le du droit du travail présente multiples facettes. Le présent mémoire traite de l’une des manifestations de cette interaction, soit du recours à l’appareil contractuel pour donner ouverture à l’application de certaines lois de protection des travailleurs dans la sphère provinciale au Québec. L’accès aux lois du travail étant réservé aux personnes qui possèdent le statut de « travailleur » ou de « salarié » au sens de ces lois, la façon dont ces notions sont définies par le législateur est importante. Nous étudions dans notre texte l’incidence que le recours à la notion de contrat de travail peut avoir dans ce contexte. Dans la première partie du mémoire, nous étudions le rôle du droit civil dans le développement du droit du travail. Nous nous penchons sur l’existence d’un ensemble de droits et d’obligations rattaché au rapport de travail indépendamment de la volonté des parties. Ensuite, nous présentons les deux fondements possibles du rapport visé par les lois du travail, soit la thèse contractuelle et celle fondée sur la « relation du travail », ainsi que la façon dont elles sont reçues au Québec et ailleurs. Dans la troisième partie de notre texte, nous examinons les effets pratiques d’appliquer les critères du droit des contrats lorsqu’il s’agit d’établir si une personne peut bénéficier des lois du travail à partir de l’analyse de certaines décisions jurisprudentielles. Nous nous penchons de façon plus particulière sur le traitement accordé par les tribunaux aux personnes qui occupent des emplois atypiques comme les travailleurs occasionnels, saisonniers et autonomes. Nous explorons également si une approche fondée sur la réalité factuelle, les particularités du travail en cause et les objectifs des lois d’ordre public peut constituer une piste de solution à la problématique que le recours à la figure contractuelle pour déterminer l’application des lois du travail soulève.
Resumo:
Nous soutenons dans ce mémoire qu'il existe, en français québécois, deux sous-types de constructions exclamatives. Située dans un cadre théorique qui participe à la fois de la philosophie du langage (la théorie des actes de langage, Austin, 1962; Searle 1969, Searle, 1979; Searle et Vanderveken 1985) et de la linguistique (la théorie des types de phrase, Sadock et Zwicky, 1985; Reis, 1999), notre analyse porte sur un ensemble de constructions exclamatives en apparence synonymes qui impliquent respectivement les morphèmes -tu, donc et assez (1). (1) Elle est-tu/donc/assez belle! Nous démontrons que si ces exclamatives satisfont aux critères d'identification des constructions exclamatives donnés par Zanuttini et Portner (2003) (factivité, évaluativité/implicature scalaire, expressivité/orientation vers le locuteur et incompatibilité avec les paires de question/réponse), les actes de langage exclamatifs servis par les exclamatives en -tu/donc n'ont pas les mêmes conditions de félicité que les actes de langage exclamatifs servis par les exclamatives en assez. En effet, les exclamatives en -tu/donc imposent une contrainte sur leur contexte d'énonciation par rapport à la position épistémique de l'interlocuteur, lequel doit être en mesure de corroborer le jugement exprimé par le locuteur au moyen de l'exclamative. Les exclamatives en assez n'imposent pas de telle contrainte. Nous démontrons que cette distinction pragmatique peut être corrélée avec des distinctions sémantiques et syntaxiques et concluons qu'il existe bien deux sous-types de constructions exclamatives en français québécois. En ce sens, notre recherche ouvre de nouvelles perspectives empiriques et théoriques pour la description et l'analyse de la grammaire des actes de langage exclamatifs.
Resumo:
Objectif: Le traitement de la carcinose péritonéale (CP) d’origine appendiculaire récidivante demeure sous-étudié. L’objectif est d’évaluer le traitement à offrir aux patients présentant une récidive de la maladie. Méthodologie: Depuis 2003, les données de tous les patients avec CP d’origine appendiculaire traités dans notre centre ont été recueillies. Le traitement de la maladie primaire consistait en une cytoréduction chirurgicale complète de la CP suivie d’une chimiothérapie hyperthermique intra-péritoneale (CHIP) à l’oxaliplatine. Lors d’une récidive, une deuxième cytoréduction avec une CHIP à la mitomycine C était offerte aux patients rencontrant certains critères de sélection. Résultats: Un total de 58 patients ont subi une cytoréduction complète suivie d’une CHIP avec l’oxaliplatine. Durant la période de suivi, 22 patients démontrèrent une maladie récidivante (39%). Le péritoine était le site de récidive le plus fréquent. Les survies sans maladie étaient statistiquement différentes selon le grade histopathologique et le degré de complétude de la cytoréduction. Parmi ces 22 patients, huit patients ont reçu une deuxième cytoréduction suivie d’une CHIP à la mitomycine C, un patient a subi une cytoréduction complète seule et 13 patients avaient une maladie non résécable. La survie globale moyenne des patients ayant reçu un deuxième traitement fut de 28 mois. Les taux de morbidité et de mortalité suite à une deuxième cytoréduction suivie d’une CHIP furent de 25% et 0%, respectivement. Conclusion: Une cytoréduction suivie d’une CHIP demeure une intervention possible chez les patients qui présentent une maladie récidivante, mais certains critères doivent être appliqués afin de maximiser la survie et minimiser la morbidité et la mortalité de cette approche.
Resumo:
Objectif : La néphrectomie partielle est reconnue actuellement comme le traitement de choix des tumeurs de moins de 7 cm. Le but de notre étude est de comparer le taux de mortalité lié au cancer du rein suite au traitement par néphrectomie partielle ou radicale chez les patients de stade T1b, de présenter la tendance temporelle du taux d'intervention par néphrectomie partielle pour les tumeurs de stade T1b et d’identifier les facteurs sociodémographiques et tumoraux qui influencent le choix thérapeutique entre les deux types de traitement chirurgical. Méthode : Il s’agit d’une étude épidémiologique de type rétrospective. La population de patients provient de la base de donnée SEER (Surveillance, Epidemiology, and End Results) qui regroupe une grande proportion de la population nord-américaine. Dans notre étude, nous avons utilisé l’analyse par régression logistique pour identifier les facteurs sociodémographiques associés à l'intervention par néphrectomie partielle. Dans un deuxième temps, nous avons comparé la mortalité liée au cancer entre les deux options chirurgicales, après association par score de tendance pour diminuer les différences de base entre les deux populations. Nos critères étaient l’âge, la race, le sexe, l’état civil, le niveau socioéconomique, la taille tumorale, le grade nucléaire, l’histologie et la localité du centre hospitalier. L’analyse des données a été faite par le logiciel SPSS. Résultats : Le taux d'interventions par néphrectomie partielle a augmenté de 1,2% en 1988 à 15,9% en 2008 (p <0,001). Les jeunes patients, les tumeurs de petite taille, les patients de race noire, ainsi que les hommes sont plus susceptibles d'être traités par néphrectomie partielle (tous les p < 0,002). Parmi le groupe ciblé, le taux de mortalité lié au cancer à 5 ans et à 10 ans est de 4,4 et de 6,1% pour les néphrectomies partielles et de 6,0 et 10,4% pour les néphrectomies radicales (p = 0,03). Après ajustement de toutes les autres variables, les analyses de régression montrent que le choix entre les deux types de néphrectomie n’est pas associé à la mortalité lié au cancer (hazard ratio: 0,89, p = 0,5). Conclusion : Malgré un contrôle oncologique équivalent, le taux d'intervention par néphrectomie partielle chez les patients ayant un cancer du rein T1b est faible en comparaison à la néphrectomie radicale.
Resumo:
Montréal, Québec se construit vers une forme urbaine compacte, mais il en relève des questionnements quant aux effets sur l’abordabilité et l’accession à la propriété. En tenant compte du processus de la densification urbaine, une enquête sur une série de projets de condominiums immobiliers à travers la ville est menée afin de divulguer les prix des projets nouveaux ou en construction. Au préalable, ceci survole la littérature et les études actuelles portant sur la planification urbaine, notamment celles qui sont reliées au Smart Growth, études dans lesquelles le contexte de densification et de tendances consuméristes à préférer les formes urbaines étalées est mis en évidence. Essentiellement, Moroni (2010) souligne l’approche dichotomique en planification urbaine entre les perspectives «teleocratic» et «nomocratic». La densification montréalaise actuelle contemporaine s’exprime par une multitude de modèles de condos conformes aux nouvelles tendances démographiques et des modes de vie. En s’appuyant sur les critères du programme Accès Condos, sur les critères du SCHL (32% du revenu) et sur le revenu médian des ménages, le niveau d’accessibilité à la propriété d’un condominium peut être mesuré. Les résultats indiquent que selon ces critères, les logements de style condominium, neufs et en construction, sont abordables. L’analyse contribue empiriquement à la littérature en exposant les liens entre les stratégies actuelles de densification urbaine avec l’abordabilité des logements condos. La recherche porte un regard nouveau sur le phénomène condo à Montréal et ses tendances démographiques. La ville est divisée selon le modèle Burgess et la recherche mène un sondage comparatif des prix pour déterminer l’abordabilité. Les résultats suggèrent que les projets condos actuels sont relativement abordables pour les ménages avec un revenu médian et plus, selon Accès Condos.
Resumo:
Depuis plus de trente ans, le Québec a pris position en faveur d’un mouvement de professionnalisation de l’enseignement. Ce choix se fonde principalement sur la volonté de moderniser les systèmes d’éducation grâce à la consolidation d’une expertise du travail enseignant. Elle a donc engendré toute une série de réformes visant à formaliser les pratiques des enseignants, à les appuyer sur les résultats de la recherche et à développer un code de pratiques responsables. Cependant, dans une perspective critique, ce processus de professionnalisation entre également dans le cadre plus large d’un processus de rationalisation étatique. Il exige de plus en plus des enseignants de faire preuve d’efficacité à tout prix, mais cette exigence ne tient pas compte de l’incertitude de l’action et des valeurs en jeu. Cette thèse vise à analyser, à partir d’une perspective critique, la conception de l’articulation entre la recherche et la pratique sous-jacente au mouvement de professionnalisation en vue de proposer une conception plus adéquate en regard de la réalité pratique: la traduction. Ce faisant, la thèse propose une réflexion sur le rôle transformateur du langage dans tout processus de transmission des connaissances. L’approche de la traduction s'inspire à la fois de la tradition herméneutique et de la critique poststructuraliste, et remet en question la conception du langage comme véhicule transparent de la pensée et des connaissances. À la lumière de ce cadre, je propose une analyse empirique (analyses discursive et sémiotique) des mécanismes de traduction qui assurent le passage du monde de la recherche vers le monde de l'enseignement. Cette partie repose sur une analyse comparative d’articles provenant de la revue Vie pédagogique, analyse qui se concentre sur les processus de traductions à l’œuvre dans trois concepts centraux du mouvement de professionnalisation : la pratique réflexive, la compétence et la collaboration. Elle met en lumière la manière dont le cadre actuel de la professionnalisation est réducteur, totalisant, et nie le caractère traductif du langage et de l’activité humaine. Je conclus avec une reconceptualisation de l'enseignement en tant que traduction et acte de profession de foi.
Resumo:
En se basant sur le principe organisationnel des deux types d’ensembles politiques rencontrés au Bénin, le but de cette recherche est d’explorer un ou des modèles conjoints, classiques et coutumiers, de participation en vue de promouvoir une démocratie participative plus proche des citoyens. Trois échelons spatiaux ont constitué le terrain de la recherche : l’Afrique, le Bénin centre et les milieux proches des anciennes royautés. La documentation et les données d’observations et d’entrevues ont été analysées par la démarche de théorisation ancrée et l’appréhension des phénomènes socio-spatiaux. Des quatre modèles originaux avec les critères endogènes d’appréciation de la participation mis en évidence et caractérisés dans les cultures du Bénin, deux, Togbésso-Hon-Togbassa et Daŋnou, émergent comme représentatifs des exigences d’une démocratie avec des formes territorialisées de la participation. La mise en perspective de la participation au Bénin avec les États d’Afrique montre une bonne performance qui le fait référencer comme le plus performant pour ses procédures et pratiques et comme source d’inspiration de mise en place des dispositifs participatifs dans le palmarès des grandes démocraties. Ses deux instruments de la décision, l’analyse participative et l’audience publique, restent perfectibles. La première, une innovation intéressante à encadrer, limite la participation à des acteurs choisis selon des critères généralement non énoncés. L’audience publique reste insatisfaisante par son inadéquation à la production de la décision collective et un modèle antinomique de la pensée politique africaine qui vise le consensus dans une démarche inclusive à essence délibérative sous forme de palabre. Fondement de la démocratie participative, la palabre offre le soubassement pour un modèle synergique basé sur les principes de délibération collective, d’offre de l’initiative de la décision au citoyen, de l’invitation aux débats et de l’écoute active (DROIE), d’un dispositif décisionnel flexible et adapté, au centre duquel se trouvent la délibération, le huis clos, la validation populaire et la reddition de compte, le recours et la réparation ainsi que le contrôle de qualité de la décision, essentiels à la gestion, et structurants à l’évaluation environnementale.
Resumo:
Refus global, le recueil, n’est pas « Refus global », le texte rédigé par Paul-Émile Borduas et cosigné par 15 membres du groupe automatiste. Partant de cette distinction entre le recueil automatiste et son texte éponyme et du constat selon lequel la partie éclipse le tout dans le discours critique, cette thèse a pour objectif d’expliquer l’occultation du recueil dans l’histoire sociale et artistique québécoise. À partir de l’étude de la réception de 1948 à 2008, j’interroge la constitution du récit commun entourant l’œuvre, duquel le recueil est exclu. Il s’agit donc de mettre au jour les obstacles qui se sont présentés dans le parcours de réception du recueil, nuisant à la formation d’un discours unifié et cohérent à son sujet et l’empêchant de s’inscrire dans l’histoire. Dégagés de l’étude du corpus composé de 639 objets sémiotiques secondaires (OSS, selon le concept proposé par Brigitte Louichon), les obstacles à la réception du recueil relèvent à la fois de facteurs pragmatiques, telles la composition hétérogène de l’œuvre ou sa disponibilité; de facteurs institutionnels ou historiographiques, comme la disciplinarisation du champ culturel ou l’impact du récit de la Révolution tranquille sur l’histoire littéraire; et de facteurs humains, reposant sur le rôle des auteurs et de certains critiques dans l’accueil réservé à l’œuvre. Les différentes étapes de la réception sont ainsi considérées : de l’horizon d’attente (Jauss) à la réception productive (Link), en passant par la publication, les premières critiques, les rééditions, les lectures savantes, l’historicisation et l’entrée de l’œuvre dans la mémoire à titre de symbole ou d’hypotexte. Or, plutôt qu’à ce parcours de réception exemplaire, c’est son envers qui est interrogé ici, c’est-à-dire les difficultés et les déviations de la réception du recueil Refus global. Cette thèse est divisée en trois parties. La première, théorique et méthodologique, situe mon propos dans les domaines de l’histoire culturelle et des études de réception, et présente diverses considérations concernant la constitution du corpus et le traitement des données. La deuxième aborde l’horizon d’attente et la première réception, moment crucial pour la survie de l’œuvre, comme l’ont montré Hans Robert Jauss et Daniel Chartier. On y observe notamment l’effet de verrou (Cambron) qu’a le renvoi de Borduas sur la constitution du récit de réception, de même que les critères éthiques et esthétiques en fonction desquels s’est opérée la hiérarchisation des composantes du recueil. La troisième partie couvre la réception subséquente (1950-2008). À l’étude des obstacles empêchant l’intégration du recueil dans l’histoire s’ajoute alors l’étude des réceptions parallèles, parcellaires et autonomes dont a bénéficié Refus global pour survivre – ponctuellement et partiellement – en dehors du récit commun formé autour de « Refus global ». Avec les différentes catégories d’OSS (directs, indirects, hypertextuels, métacritiques et parcellaires), ces trois types de réception font partie des outils heuristiques développés dans le but d’expliquer la réception partielle dont a fait l’objet le recueil. Selon l’approche quantitative et environnementaliste de l’histoire culturelle, Refus global est envisagé comme un microcosme de la culture, dans lequel certaines œuvres sont retenues et d’autres négligées. L’analyse d’un corpus critique large et varié permet ainsi de saisir non seulement les phénomènes conduisant à la consécration du texte éponyme ou à l’oubli relatif du recueil, mais aussi les tendances critiques, les parutions marginales, les critiques isolées, etc. qui, enfouies dans les angles morts de la réception, offrent au recueil et à ses composantes des voies de contournement du discours dominant. En somme, l’étude de la réception du recueil Refus global a permis à la fois de déplacer la focalisation critique depuis « Refus global » vers Refus global, de développer des outils pour envisager la réception d’œuvres marginalisées et de mettre en évidence des critères privilégiés dans la constitution de l’histoire et de la mémoire culturelles québécoises depuis 1948.
Resumo:
La fonction des canaux ioniques est finement régulée par des changements structuraux de sites clés contrôlant l’ouverture du pore. Ces modulations structurales découlent de l’interaction du canal avec l’environnement local, puisque certains domaines peuvent être suffisamment sensibles à des propriétés physico-chimiques spécifiques. Les mouvements engendrés dans la structure sont notamment perceptibles fonctionnellement lorsque le canal ouvre un passage à certains ions, générant ainsi un courant ionique mesurable selon le potentiel électrochimique. Une description détaillée de ces relations structure-fonction est cependant difficile à obtenir à partir de mesures sur des ensembles de canaux identiques, puisque les fluctuations et les distributions de différentes propriétés individuelles demeurent cachées dans une moyenne. Pour distinguer ces propriétés, des mesures à l’échelle de la molécule unique sont nécessaires. Le but principal de la présente thèse est d’étudier la structure et les mécanismes moléculaires de canaux ioniques par mesures de spectroscopie de fluorescence à l’échelle de la molécule unique. Les études sont particulièrement dirigées vers le développement de nouvelles méthodes ou leur amélioration. Une classe de toxine formeuse de pores a servi de premier modèle d’étude. La fluorescence à l’échelle de la molécule unique a aussi été utilisée pour l’étude d’un récepteur glutamate, d’un récepteur à la glycine et d’un canal potassique procaryote. Le premier volet porte sur l’étude de la stœchiométrie par mesures de photoblanchiment en temps résolu. Cette méthode permet de déterminer directement le nombre de monomères fluorescents dans un complexe isolé par le décompte des sauts discrets de fluorescence suivant les événements de photoblanchiment. Nous présentons ici la première description, à notre connaissance, de l’assemblage dynamique d’une protéine membranaire dans un environnement lipidique. La toxine monomérique purifiée Cry1Aa s’assemble à d’autres monomères selon la concentration et sature en conformation tétramérique. Un programme automatique est ensuite développé pour déterminer la stœchiométrie de protéines membranaires fusionnées à GFP et exprimées à la surface de cellules mammifères. Bien que ce système d’expression soit approprié pour l’étude de protéines d’origine mammifère, le bruit de fluorescence y est particulièrement important et augmente significativement le risque d’erreur dans le décompte manuel des monomères fluorescents. La méthode présentée permet une analyse rapide et automatique basée sur des critères fixes. L’algorithme chargé d’effectuer le décompte des monomères fluorescents a été optimisé à partir de simulations et ajuste ses paramètres de détection automatiquement selon la trace de fluorescence. La composition de deux canaux ioniques a été vérifiée avec succès par ce programme. Finalement, la fluorescence à l’échelle de la molécule unique est mesurée conjointement au courant ionique de canaux potassiques KcsA avec un système de fluorométrie en voltage imposé. Ces enregistrements combinés permettent de décrire la fonction de canaux ioniques simultanément à leur position et densité alors qu’ils diffusent dans une membrane lipidique dont la composition est choisie. Nous avons observé le regroupement de canaux KcsA pour différentes compositions lipidiques. Ce regroupement ne paraît pas être causé par des interactions protéine-protéine, mais plutôt par des microdomaines induits par la forme des canaux reconstitués dans la membrane. Il semble que des canaux regroupés puissent ensuite devenir couplés, se traduisant en ouvertures et fermetures simultanées où les niveaux de conductance sont un multiple de la conductance « normale » d’un canal isolé. De plus, contrairement à ce qui est actuellement suggéré, KcsA ne requiert pas de phospholipide chargé négativement pour sa fonction. Plusieurs mesures indiquent plutôt que des lipides de forme conique dans la phase cristalline liquide sont suffisants pour permettre l’ouverture de canaux KcsA isolés. Des canaux regroupés peuvent quant à eux surmonter la barrière d’énergie pour s’ouvrir de manière coopérative dans des lipides non chargés de forme cylindrique.
Resumo:
Justification: Le glaucome entraîne une perte progressive de la vision causée par la détérioration du nerf optique. Le glaucome est répandu dans le monde et cause la cécité dans environ sept millions de personnes. Le glaucome touche plus de 400 000 Canadiens et sa prévalence augmente avec le vieillissement de la population.1,2 Il s'agit d'une maladie chronique surnoise dont les symptômes se manifestent uniquement lors des stades avancés et qui peuvent mener à la cécité. Présentement, le seul moyen possible d’arrêter la progression du glaucome au stade initial est de diminuer la pression intra-oculaire (PIO). Les analogues de prostaglandines (APG) topiques sont fréquemment utilisées comme traitement de première ligne. Cependant, la recherche démontre que cette classe de médicaments peut changer certaines propriétés de la cornée, et possiblement influencer la mesure de la PIO.3 Objectif: À déterminer si l'utilisation d'APG affecte les propriétés biomécaniques de la cornée. La conclusion sera basée sur l'analyse intégrée des résultats obtenus de l'analyseur Reichert oculaire Réponse (ORA), la tonométrie par applanation de Goldmann (TAG) et la pachymétrie ultrasonographique. Le deuxième objectif potentiel de cette étude est de déterminer la corrélation, le cas échéant, entre les propriétés biomécaniques de la cornée, l'épaisseur de la cornée centrale (ECC) et la PIO chez les patients subissant un traitement d’APG topique. L'hypothèse principale de cette étude est que l’APG influence les propriétés de la cornée telles que l'épaisseur centrale, l'élasticité et la résistance. Patients et méthodes : Soixante-dix yeux de 35 patients, âgés de 50-85 ans, atteints de glaucome à angle ouvert (GAO) et traités avec APG topique ont été examinés. Seulement les sujets avec une réfraction manifeste entre -6,00 D et +4,25 D ont été inclus. Les critères d'exclusion sont: patients avec n'importe quelle autre maladie de la cornée de l’œil, telles que la dystrophie endothéliale de Fuch’s et kératocône, ou tout antécédent de traumatisme ou d'une chirurgie de la cornée, ainsi que le port de lentilles de contact. Nous avons demandé aux patients atteints du glaucome qui ont des paramètres stables et qui utilisent l’APG dans les deux yeux de cesser l’APG dans l'œil moins affecté par la PIO, et de continuer l’utilisation d’APG dans l'œil contralatéral. Le meilleur œil est défini comme celui avec moins de dommage sur le champ visuel (CV) (déviation moyenne (DM), le moins négatif) ou une PIO maximale historique plus basse si la DM est égale ou encore celui avec plus de dommage sur la tomographie par cohérence optique (TCO, Cirrus, CA) ou la tomographie confocale par balayage laser (HRT, Heidelberg, Allemagne). Toutes les mesures ont été prises avant la cessation d’APG et répétées 6 semaines après l’arrêt. Les patients ont ensuite recommencé l’utilisation d’APG et toutes les mesures ont été répétées encore une fois après une période supplémentaire de 6 semaines. Après commencer ou de changer le traitement du glaucome, le patient doit être vu environ 4-6 semaines plus tard pour évaluer l'efficacité de la goutte.4 Pour cette raison, on été décidé d'utiliser 6 semaines d'intervalle. Toutes les mesures ont été effectuées à l’institut du glaucome de Montréal par le même technicien, avec le même équipement et à la même heure de la journée. L'œil contralatéral a servi comme œil contrôle pour les analyses statistiques. La tonométrie par applanation de Goldmann a été utilisée pour mesurer la PIO, la pachymétrie ultrasonographique pour mesurer l'ECC, et l’ORA pour mesurer les propriétés biomécaniques de la cornée, incluant l'hystérèse cornéenne (HC). L’hypothèse de l'absence d'effet de l'arrêt de l’APG sur les propriétés biomécaniques a été examiné par un modèle linéaire à effets mixtes en utilisant le logiciel statistique R. Les effets aléatoires ont été définies à deux niveaux: le patient (niveau 1) et l'œil de chaque patient (niveau 2). Les effets aléatoires ont été ajoutés au modèle pour tenir compte de la variance intra-individuelle. L’âge a également été inclus dans le modèle comme variable. Les contrastes entre les yeux et les temps ont été estimés en utilisant les valeurs p ajustées pour contrôler les taux d'erreur internes de la famille en utilisant multcomp paquet dans R. Résultats: Une augmentation statistiquement significative due l 'HC a été trouvée entre les visites 1 (sur APG) et 2 (aucun APG) dans les yeux de l'étude, avec une moyenne (±erreur standard) des valeurs de 8,98 ± 0,29 mmHg et 10,35 ± 0,29 mmHg, respectivement, correspondant à une augmentation moyenne de 1,37 ± 0,18 mmHg (p <0,001). Une réduction significative de 1,25 ± 0,18 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne HC finale de 9,09 ± 0,29 mmHg. En outre, une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,01 ± 0,23 mmHg, p <0,001) et non lors des visites 1 et 3. Une augmentation statistiquement significative du facteur de résistance conréen (FRC) a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 10,23 ± 0,34 mmHg et 11,71 ± 0,34 mmHg, respectivement. Le FRC a ensuite été réduit de 1,90 ± 0,21 mmHg (p <0,001) entre les visites 2 et 3, avec une valeur moyenne FRC finale de 9,81 ± 0,34 mmHg. Une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,46 ± 0,23 mmHg, p <0,001). Une augmentation statistiquement significative de l'ECC a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 541,83 ± 7,27 µm et 551,91 ± 7,27 µm, respectivement, ce qui correspond à une augmentation moyenne de 10,09 ± 0,94 µm (p <0,001). L'ECC a ensuite diminué de 9,40 ± 0,94 µm (p <0,001) entre les visites 2 et 3, avec une valeur moyenne finale de 542,51 ± 7,27 µm. Une différence entre l’étude et le contrôle des yeux n'a été enregistré que lors de la visite 2 (11,26 ± 1,79 µm, p <0,001). De même, on a observé une augmentation significative de la PIO entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 15,37 ± 0,54 mmHg et 18,37 ± 0,54 mmHg, respectivement, ce qui correspond à une augmentation moyenne de 3,0 ± 0,49 mmHg (p <0,001). Une réduction significative de 2,83 ± 0,49 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne de la PIO finale de 15,54 ± 0,54 mmHg. L’oeil de contrôle et d’étude ne différaient que lors de la visite 2 (1,91 ± 0,49 mmHg, p <0,001), ce qui confirme l'efficacité du traitement de l’APG. Lors de la visite 1, le biais de la PIO (PIOcc - PIO Goldmann) était similaire dans les deux groupes avec des valeurs moyennes de 4,1 ± 0,54 mmHg dans les yeux de contrôles et de 4,8 ± 0,54 mmHg dans les yeux d’études. Lors de la visite 2, après un lavage de 6 semaines d’APG, le biais de la PIO dans l'œil testé a été réduit à 1,6 ± 0,54 mmHg (p <0,001), ce qui signifie que la sous-estimation de la PIO par TAG était significativement moins dans la visite 2 que de la visite 1. La différence en biais PIO moyenne entre l'étude et le contrôle des yeux lors de la visite 2, en revanche, n'a pas atteint la signification statistique (p = 0,124). On a observé une augmentation peu significative de 1,53 ± 0,60 mmHg (p = 0,055) entre les visites 2 et 3 dans les yeux de l'étude, avec une valeur de polarisation finale de la PIO moyenne de 3,10 ± 0,54 mmHg dans les yeux d'études et de 2,8 ± 0,54 mmHg dans les yeux de contrôles. Nous avons ensuite cherché à déterminer si une faible HC a été associée à un stade de glaucome plus avancé chez nos patients atteints du glaucome à angle ouvert traités avec l’APG. Lorsque l'on considère tous les yeux sur l’APG au moment de la première visite, aucune association n'a été trouvée entre les dommages sur le CV et l'HC. Cependant, si l'on considère seulement les yeux avec un glaucome plus avancé, une corrélation positive significative a été observée entre la DM et l'HC (B = 0,65, p = 0,003). Une HC inférieure a été associé à une valeur de DM de champ visuelle plus négative et donc plus de dommages liés au glaucome. Conclusions : Les prostaglandines topiques affectent les propriétés biomécaniques de la cornée. Ils réduisent l'hystérèse cornéenne, le facteur de résistance cornéen et l'épaisseur centrale de la cornée. On doit tenir compte de ces changements lors de l'évaluation des effets d’APG sur la PIO. Plus de recherche devrait être menées pour confirmer nos résultats. De plus, d’autres études pourraient être réalisées en utilisant des médicaments qui diminuent la PIO sans influencer les propriétés biomécaniques de la cornée ou à l'aide de tonomètre dynamique de Pascal ou similaire qui ne dépend pas des propriétés biomécaniques de la cornée. En ce qui concerne l'interaction entre les dommages de glaucome et l'hystérésis de la cornée, nous pouvons conclure qu' une HC inférieure a été associé à une valeur de DM de CV plus négative. Mots Clés glaucome - analogues de prostaglandines - hystérèse cornéenne – l’épaisseur de la cornée centrale - la pression intraoculaire - propriétés biomécaniques de la cornée.
Resumo:
Introduction: Il est important de minimiser le gaspillage et les risques associés aux soins sans valeur. La gestion de l’utilisation des antimicrobiens vise à optimiser leur emploi et doit être adaptée au milieu et à sa population. Objectifs: Évaluer les profiles d’utilisation actuels des antimicrobiens et fixer des objectifs pour les interventions en matière de gestion des antimicrobiens. Méthode: Vingt-et-un hôpitaux du Nouveau-Brunswick offrant des soins de courte durée en médecine générale, en chirurgie et en pédiatrie ont pris part à une enquête sur la prévalence ponctuelle. Tous les patients admis aux hôpitaux participants et ayant reçu au moins un antimicrobien systémique ont été inscrits à l’étude. Les principaux critères d’évaluation étaient le profil d’utilisation, selon l’indication et l’antimicrobien prescrit, le bienfondé de l’utilisation et la durée de la prophylaxie chirurgicale. Des statistiques descriptives et un test d’indépendance 2 furent utilisés pour l’analyse de données. Résultats: L’enquête a été menée de juin à août 2012. Un total de 2244 patients ont été admis pendant la durée de l’étude et 529 (23,6%) ont reçu un antimicrobien. Au total, 691 antimicrobiens ont été prescrits, soit 587 (85%) pour le traitement et 104 (15%) pour la prophylaxie. Les antimicrobiens les plus souvent prescrits pour le traitement (n=587) étaient des classes suivantes : quinolones (25,6%), pénicillines à spectre étendu (10,2%) et métronidazole (8,5%). Les indications les plus courantes du traitement étaient la pneumonie (30%), les infections gastro-intestinales (16%) et les infections de la peau et des tissus mous (14%). Selon des critères définis au préalable, 23% (n=134) des ordonnances pour le traitement étaient inappropriées et 20% (n=120) n’avaient aucune indication de documentée. Les domaines où les ordonnances étaient inappropriées étaient les suivants : défaut de passage de la voie intraveineuse à la voie orale (n=34, 6%), mauvaise dose (n=30, 5%), traitement d’une bactériurie asymptomatique (n=24, 4%) et doublement inutile (n=22, 4%). Dans 33% (n=27) des cas, les ordonnances pour la prophylaxie chirurgicale étaient pour une période de plus de 24 heures. Conclusions: Les résultats démontrent que les efforts de gestion des antimicrobiens doivent se concentrer sur les interventions conventionnelles de gestion de l’utilisation des antimicrobiens, l’amélioration de la documentation, l’optimisation de l’utilisation des quinolones et la réduction au minimum de la durée de la prophylaxie chirurgicale.
Resumo:
Lorsqu’un site ou un bien est protégé par un statut patrimonial, tant national que local, les règlements d’urbanisme sont un des principaux outils d’encadrement des modifications de l’environnement bâti. Comment ces règlements participent-ils à la conservation des valeurs patrimoniales ? Pour explorer cette question, nous avons choisi le cas de l’arrondissement historique et naturel du Mont-Royal (AHNMR, renommé en 2012 site patrimonial du Mont-Royal), un site majeur pour l’identité de Montréal. Nous avons recensé les valeurs patrimoniales attribuées au site et analysé le processus de gestion des projets dans les quatre arrondissements qui se répartissent la partie montréalaise du territoire de l’AHNMR; nous avons également analysé quelques demandes de permis. Le processus est complexe, d’autant plus que l’évaluation est en bonne partie discrétionnaire, incluant des analyses de fonctionnaires et de comités consultatifs de même que des exercices de consultation publique. La recherche a permis de mettre en lumière que les règlements d’urbanisme ont tendance à se concentrer sur les valeurs dont la matérialité est connue (valeurs architecturales et paysagères notamment) et à délaisser les valeurs immatérielles (valeurs d’usage, valeurs identitaires et emblématiques). La juxtaposition des valeurs peut atténuer ce déséquilibre en protégeant une valeur immatérielle par l’entremise d’une valeur matérielle. La documentation des valeurs patrimoniales et de leur incarnation dans l’aménagement d’un site revêt une importance majeure pour l’application des critères d’évaluation. De plus, l’évaluation discrétionnaire apporte de multiple points de vue sur un projet, des opinions d’acteurs, experts en patrimoine ou non, généralement absents de l’évaluation des projets, ce qui contribue à l’évolution de ces derniers. Les consultations publiques donnent lieu à la réévaluation des valeurs patrimoniales ainsi qu’à l’approfondissement des connaissances.