29 resultados para project formulation

em Université de Montréal, Canada


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche étudie l'évolution de l'appui à la souveraineté du Québec entre 1976 et aujourd'hui, en considérant les diverses formulations de la question utilisées par les acteurs politiques et par les sondeurs. Cette question est abordée en faisant une analyse longitudinale multiniveaux de plus de 800 sondages. Une telle approche suggère que les caractéristiques des sondages sont nichées à l'intérieur d'unités contextuelles plus larges, des unités de temps. Cela permet d'une part d'observer quels sont les facteurs liés à la mesure qui influencent l'appui à la souveraineté du Québec et ensuite de voir comment ces mêmes effets varient à travers le temps et comment ils sont influencés par certains événements jugés importants. Il ressort de ces analyses que les propositions séparation, indépendance, souveraineté et souveraineté-association/partenariat entraînent généralement des appuis moyens significativement différents les uns des autres. Il apparaît aussi que certains événements ont eu une influence significative sur l'évolution de l'appui à ces diverses propositions. Enfin, il a été tenté de voir si les appuis propres à ces diverses propositions évoluaient de manière parallèle, s'ils réagissaient similairement aux différents événements considérés dans les analyses ou si au contraire ces appuis pouvaient parfois évoluer de manière différente. Les résultats à cet égard sont intéressants mais non concluants.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En utilisant le cadre d’analyse de Honig (2006) qui étudie l’implantation d’une politique publique à la lumière des dimensions que sont le lieu, la politique et les acteurs, la présente recherche explore la relation entre l’implantation et la formulation d’une politique publique. Introduite en éducation par l’adoption, en 2002, du projet de loi 124 (Québec, 2002), la gestion axée sur les résultats s’est traduite par l’élaboration d’une planification stratégique pour la commission scolaire et d’un plan de réussite découlant d’un projet éducatif pour l’établissement scolaire. Or, l’étude de cas unique de cette recherche qui s’insère dans un projet dirigé par le professeur Martial Dembélé sur la gestion axée sur les résultats à l’ordre d’enseignement primaire au Québec (FQRSC, 2007-2008 ; CRSH, 2007-2010) permet l’examen de la relation formulation - implantation du projet éducatif/plan de réussite d’une école primaire située dans la grande région de Montréal. Les résultats de cette recherche démontrent que la formulation d’une politique a un impact sur son implantation, mais cette dimension n’est pas exclusive à une implantation effective. Les autres dimensions que sont les acteurs et le lieu ont tout autant d’effet : une ou deux dimensions peuvent pallier à la faiblesse de la troisième.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les innovations médicales ont un impact considérable sur les pratiques cliniques, sur la formulation des politiques et sur les attentes du public envers le système de santé. Dans un contexte de système de santé public, les conséquences économiques importantes des innovations médicales freinent grandement leur adoption alors qu’elles sont souvent représentées dans les médias comme étant hautement désirables. Une telle définition de la problématique limite le débat sur ce qui rend les innovations sociales et technologiques en santé pertinentes d’un point de vue de santé des populations. Il apparaît donc intéressant de tirer profit d’une pratique communicationnelle innovante, le Café scientifique. Ce projet de recherche analyse un Café scientifique ayant mis en scène en mars 2007 un échange entre quatre experts et environ 80 membres du public autour des enjeux relatifs aux innovations en santé. Les objectifs sont : 1) analyser l’application d’une intervention de type Café scientifique; et 2) analyser ses retombées sur les participants. Cette étude de cas unique s’appuie sur des données qualitatives et quantitatives: 1) observation semi-participative; 2) enregistrement audiovisuel de l’activité; 3) questionnaires distribués à la fin de l’activité; et 4) entrevues semi-dirigées (n=11) avec des participants. L’analyse intégrée de ces données permet de mieux comprendre comment le contexte est structurant pour le débat, décrit les principaux rôles adoptés par les participants lors des échanges, identifie les principaux enjeux relatifs aux innovations médicales qui ont été débattus et dégage les dynamiques qui favorisent ou nuisent à un dialogue entre des scientifiques et le public. Le Café scientifique est une pratique encore peu répandue, mais qui suscite un intérêt à la fois chez les chercheurs et les participants.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ARTICLE 1 : RÉSUMÉ Amputation traumatique: Une étude de cas laotien sur l’indignation et l’injustice. La culture est un contexte essentiel à considérer pour produire un diagnostic et un plan d’intervention psychiatrique. Une perspective culturelle met en relief le contexte social dans lequel les symptômes émergent, et comment ils sont interprétés et gérés par la personne atteinte. Des études ethnoculturelles sur les maladies nous suggèrent que la plupart des gens nous donnent des explications pour leurs symptômes qui ont un fondement culturel. Bien que ces explications contredisent la théorie biomédicale, elles soulagent la souffrance des patients et leur permettent de donner une signification à cette dernière. L’exploration des caractéristiques, contextes et antécédents des symptômes permet au patient de les communiquer au clinicien qui pourrait avoir une explication différente de sa maladie. Cette étude de cas permet de montrer comment le Guide pour Formulation Culturelle du DSM-IV (The DSM-IV Outline for Cultural Formulation) permet aux cliniciens de solliciter un récit du patient en lien avec son expérience de la maladie. Notre étude examine l’utilisation par un patient laotien de « l’indignation sociale » (« Khuâm khum khang ») comme le modèle explicatif culturel de son problème malgré le diagnostic de trouble de stress post-traumatique qui lui fut attribué après une amputation traumatique. L’explication culturelle de son problème a permis au patient d’exprimer la signification personnelle et collective à sa colère et sa frustration, émotions qu’il avait réprimées. Cet idiome culturel lui a permis d’exprimer sa détresse et de réfléchir sur le système de soins de santé et, plus précisément, le contexte dans lequel les symptômes et leurs origines sont racontés et évalués. Cette représentation laotienne a aussi permis aux cliniciens de comprendre des expériences et les explications du client, autrement difficiles à situer dans un contexte biomédical et psychiatrique Euro-américain. Cette étude démontre comment il est possible d’améliorer les interactions entre cliniciens et patients et dès lors la qualité des soins par la compréhension de la perspective du patient et l’utilisation d’une approche culturelle. Mots clés: Culture, signification, idiome culturel, modèle explicatif, Guide pour Formulation culturelle du DSM-IV, indignation sociale, interaction entre patient et intervenant. ARTICLE 2 : RÉSUMÉ Impact de l’utilisation du Guide pour la formulation culturelle du DSM-IV sur la dynamique de conférences multidisciplinaires en santé mentale. La croissance du pluralisme culturel en Amérique du nord a obligé la communauté oeuvrant en santé mentale d’adopter une sensibilité culturelle accrue dans l’exercice de leur métier. Les professionnels en santé mentale doivent prendre conscience du contexte historique et social non seulement de leur clientèle mais également de leur propre profession. Les renseignements exigés pour les soins professionnels proviennent d’ évaluations cliniques. Il faut examiner ces informations dans un cadre culturellement sensible pour pouvoir formuler une évaluation des cas qui permet aux cliniciens de poser un diagnostic juste et précis, et ce, à travers les frontières culturelles du patient aussi bien que celles du professionnel en santé mentale. Cette situation a suscité le développement du Guide pour la formulation culturelle dans la 4ième édition du Manuel diagnostique et statistique des troubles mentaux américain (Diagnostic and Statistical Manual of Mental Disorders (4th ed., DSM-IV) de l’Association psychiatrique américaine. Ce guide est un outil pour aider les cliniciens à obtenir des informations de nature culturelle auprès du client et de sa famille afin de guider la production des soins en santé mentale. L’étude vise l’analyse conversationnelle de la conférence multidisciplinaire comme contexte d’utilisation du Guide pour la formulation culturelle qui sert de cadre dans lequel les pratiques discursives des professionnels de la santé mentale évoluent. Utilisant la perspective théorique de l’interactionnisme symbolique, l’étude examine comment les diverses disciplines de la santé mentale interprètent et conceptualisent les éléments culturels et les implications de ce cadre pour la collaboration interdisciplinaire dans l’évaluation, l’élaboration de plans de traitement et des soins. Mots clé: Guide pour Formulation culturelle – Santé mentale – Psychiatrie transculturelle – Analyse conversationnelle – Interactionnisme symbolique

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette étude a été réalisée dans le cadre d’une maîtrise en Aménagement. Elle s’efforce à démontrer que l’étape d’un projet que l’on appelle problématisation, c’est-à-dire l’étape de construction des problèmes à être résolus, permet de s’assurer que les actions entreprises soient en cohérence et en pertinence avec le contexte du projet. Nous constatons désormais que nous ne pouvons plus nous contenter d’évaluer les projets sur la seule base de son efficience, c’est-à-dire la concordance de ses résultats avec les objectifs prévus. Dans ces circonstances, nous émettons l’hypothèse que la problématisation fait appel à des compétences particulières et généralement peu utilisées par rapport à d’autres étapes de la réalisation d’un projet. À cet égard, nous avons réalisé un travail de recherche exploratoire sur ce thème en ayant comme objectif d’obtenir une compréhension des compétences mobilisées lors de la problématisation en situation de projet en général et d’identifier plus spécifiquement ces compétences dans une situation de projet en particulier, celle des projets de coopération internationale. Pour y arriver, nous avons procédé à la construction d’un référentiel d’emploi et d’activités pour en déduire un référentiel de compétences de la problématisation. Pour ce faire, nous avons réalisé une étude de cas sur les projets de stage de coopération internationale. L’utilisation de la technique de l’« instruction au sosie » et d’une rechercheintervention nous ont permis de dégager les principaux résultats suivant: la problématisation fait appel à des compétences particulières de gestion de l’information et de médiation. Les compétences générales de problématisation que les responsables des stages dans les organisations de coopération internationale v doivent maîtriser sont : être capable de générer les disponibilités de projets à partir de données primaires et secondaires; être capable de faire des choix et de justifier ces choix en fonction de l’analyse des données; être capable de présenter des informations écrites claires, respectueuses des idées des partenaires en fonction du langage de projet utilisé par le public auquel s’adresse la proposition; être capable d’utiliser les commentaires des évaluateurs pour améliorer un projet et être capable de mener à terme un projet. La contribution principale de ce travail de recherche réside dans la proposition d’un outil précieux pour le recrutement et la sélection, l’évaluation du rendement, la formation et le perfectionnement des acteurs de la problématisation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Plusieurs agents anticancéreux très puissants sont caractérisés par une solubilité aqueuse limitée et une toxicité systémique importante. Cette dernière serait liée d’une part à la solubilisation des agents anticancéreux à l’aide de surfactifs de bas poids moléculaire, connus pour leur toxicité intrinsèque, et d’autre part, par le manque de spécificité tissulaire des anticancéreux. Les vecteurs colloïdaux à base de polymères permettraient de résoudre certains défis liés à la formulation d’agents anticancéreux hydrophobes. D’abord, les polymères peuvent être sélectionnés afin de répondre à des critères précis de compatibilité, de dégradation et d’affinité pour le médicament à formuler. Ensuite, le fait d’encapsuler l’agent anticancéreux dans un vecteur peut améliorer son efficacité thérapeutique en favorisant son accumulation au niveau du tissu cible, i.e. la tumeur, et ainsi limiter sa distribution au niveau des tissus sains. Des travaux antérieurs menés au sein de notre laboratoire ont mené à la mise au point de micelles à base de poly(N-vinyl-pyrrolidone)-bloc-poly(D,L-lactide) (PVP-b-PDLLA) capables de solubiliser des agents anticancéreux faiblement hydrosolubles dont le PTX. Ce dernier est commercialisé sous le nom de Taxol® et formulé à l’aide du Crémophor EL (CrEL), un surfactif de bas poids moléculaire pouvant provoquer, entre autres, des réactions d’hypersensibilité sévères. Bien que les micelles de PVP-b-PDLLA chargées de PTX aient démontré une meilleure tolérance comparée au Taxol®, leur potentiel de ciblage tumoral et leur efficacité thérapeutique étaient similaires à la forme commerciale à doses égales. Ceci était possiblement dû au fait que les micelles étaient rapidement déstabilisées et ne pouvaient retenir leur cargo suite à leur administration intraveineuse. Nous avons donc décidé de poursuivre les travaux avec un autre type de vecteur, soit des nanoparticules, qui possèdent une stabilité intrinsèque supérieure aux micelles. L’objectif principal de cette thèse de doctorat était donc de mettre au point des nanoparticules polymères pour l’administration parentérale d’agents anticancéreux faiblement solubles dans l’eau. Les nanoparticules devaient permettre d’encapsuler des agents anticancéreux hydrophobes et de les libérer de manière contrôlée sur plusieurs jours. De plus, elles devaient démontrer un temps de circulation plasmatique prolongée afin de favoriser l’accumulation passive du médicament encapsulé au niveau de la tumeur. La première partie du travail visait à employer pour la première fois le copolymère amphiphile PVP-b-PDLLA comme émulsifiant dans la préparation de nanoparticules polymères. Ainsi, une méthode de fabrication des nanoparticules par émulsion huile-dans-eau a été appliquée afin de produire des nanoparticules à base de PDLLA de taille inférieure à 250 nm. Grâce aux propriétés lyoprotectrices de la couronne de PVP présente à la surface des nanoparticules, celles-ci pouvaient retrouver leur distribution de taille initiale après lyophilisation et redispersion en milieu aqueux. Deux anticancéreux hydrophobes, soit le PTX et l’étoposide (ETO), ont été encapsulés dans les nanoparticules et libérés de ces dernières de façon contrôlée sur plusieurs jours in vitro. Une procédure de « salting-out » a été appliquée afin d’améliorer le taux d’incorporation de l’ETO initialement faible étant donnée sa solubilité aqueuse légèrement supérieure à celle du PTX. Le second volet des travaux visait à comparer le PVP comme polymère de surface des nanoparticules au PEG, le polymère le plus fréquemment employé à cette fin en vectorisation. Par le biais d’études d’adsorption de protéines, de capture par les macrophages et de biodistribution chez le rat, nous avons établi une corrélation in vitro/in vivo démontrant que le PVP n’était pas un agent de surface aussi efficace que le PEG. Ainsi, malgré la présence du PVP à la surface des nanoparticules de PDLLA, ces dernières étaient rapidement éliminées de la circulation sanguine suite à leur capture par le système des phagocytes mononucléés. Par conséquent, dans le troisième volet de cette thèse, le PEG a été retenu comme agent de surface, tandis que différents polymères biodégradables de la famille des polyesters, certains synthétiques (PDLLA et copolymères d’acide lactique/acide glycolique), d’autres de source naturelle (poly(hydroxyalkanoates)(PHAs)), ont été investiguées comme matériaux formant le cœur des nanoparticules. Il en est ressorti que les propriétés physicochimiques des polyesters avaient un impact majeur sur l’efficacité d’encapsulation du PTX et son profil de libération des nanoparticules in vitro. Contrairement aux PHAs, les polymères synthétiques ont démontré des taux d’incorporation élevés ainsi qu’une libération contrôlée de leur cargo. Des études de pharmacocinétique et de biodistribution ont démontré que les nanoparticules de PDLLA dotées d’une couronne de PEG conféraient un temps de circulation plasmatique prolongé au PTX et favorisaient son accumulation tumorale. Les nanoparticules polymères représentent donc une alternative intéressante au Taxol®.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nous proposons une approche basée sur la formulation interactive des requêtes. Notre approche sert à faciliter des tâches d’analyse et de compréhension du code source. Dans cette approche, l’analyste utilise un ensemble de filtres de base (linguistique, structurel, quantitatif, et filtre d’interactivité) pour définir des requêtes complexes. Ces requêtes sont construites à l’aide d’un processus interactif et itératif, où des filtres de base sont choisis et exécutés, et leurs résultats sont visualisés, changés et combinés en utilisant des opérateurs prédéfinis. Nous avons évalués notre approche par l’implantation des récentes contributions en détection de défauts de conception ainsi que la localisation de fonctionnalités dans le code. Nos résultats montrent que, en plus d’être générique, notre approche aide à la mise en œuvre des solutions existantes implémentées par des outils automatiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif de cette thèse est d’élucider l’intention, la pertinence et la cohérence de l’appropriation par Heidegger des concepts principaux de la philosophie pratique aristotélicienne dans ses premiers cours. Notre analyse portera principalement sur les notions clefs d’energeia et de phronēsis. La première section de la thèse est préparatoire : elle est consacrée à une analyse étroite des textes pertinents de l’Éthique à Nicomaque, mais aussi de la Métaphysique, en discussion avec d’autres commentateurs modernes. Cette analyse jette les fondations philologiques nécessaires en vue d’aborder les audacieuses interprétations de Heidegger sur une base plus ferme. La deuxième et principale section consiste en une discussion de l’appropriation ontologique de l’Éthique à Nicomaque que Heidegger entreprend de 1922 à 1924, à partir des textes publiés jusqu’à ce jour et en portant une attention spéciale à Métaphysique IX. Le résultat principal de la première section est un aperçu du caractère central de l’energeia pour le projet d’Aristote dans l’Éthique à Nicomaque et, plus spécifiquement, pour sa compréhension de la praxis, qui dans son sens original s’avère être un mode d’être des êtres humains. Notre analyse reconnaît trois traits essentiels de l’energeia et de la praxis, deux desquels provenant de l’élucidation aristotélicienne de l’energeia dans Métaphysique IX 6, à savoir son immédiateté et sa continuité : energeia exprime l’être comme un « accomplissement immédiat mais inachevé ». L’irréductibilité, troisième trait de l’energeia et de la praxis, résulte pour sa part de l’application de la structure de l’energeia à la caractérisation de la praxis dans l’Éthique à Nicomaque, et du contraste de la praxis avec la poiēsis et la theōria. Ces trois caractéristiques impliquent que la vérité pratique ― la vérité de la praxis, ce qui est l’ « objet » de la phronēsis ― ne peut être à proprement parler possédée et ainsi transmise : plus qu’un savoir, elle se révèle surtout comme quelque chose que nous sommes. C’est ce caractère unique de la vérité pratique qui a attiré Heidegger vers Aristote au début des années 1920. La deuxième section, consacrée aux textes de Heidegger, commence par la reconstruction de quelques-uns des pas qui l’ont conduit jusqu’à Aristote pour le développement de son propre projet philosophique, pour sa part caractérisé par une profonde, bien qu’énigmatique combinaison d’ontologie et de phénoménologie. La légitimité et la faisabilité de l’appropriation clairement ontologique de l’Éthique à Nicomaque par Heidegger est aussi traitée, sur la base des résultats de la première section. L’analyse de ces textes met en lumière la pénétrante opposition établie par Heidegger entre la phronēsis et l’energeia dans son programmatique Natorp Bericht en 1922, une perspective qui diverge fortement des résultats de notre lecture philologique d’Aristote dans la première section. Cette opposition est maintenue dans nos deux sources principales ― le cours du semestre d’hiver 1924-25 Platon: Sophistes, et le cours du semestre d’été 1924 Grundbegriffe der aristotelischen Philosophie. Le commentaire que Heidegger fait du texte d’Aristote est suivi de près dans cette section: des concepts tels que energeia, entelecheia, telos, physis ou hexis ― qui trouvent leur caractérisation ontologique dans la Métaphysique ou la Physique ― doivent être examinés afin de suivre l’argument de Heidegger et d’en évaluer la solidité. L’hypothèse de Heidegger depuis 1922 ― à savoir que l’ontologie aristotélicienne n’est pas à la hauteur des aperçus de ses plus pénétrantes descriptions phénoménologiques ― résulte en un conflit opposant phronēsis et sophia qui divise l’être en deux sphères irréconciliables qui auraient pour effet selon Heidegger de plonger les efforts ontologiques aristotéliciens dans une impasse. Or, cette conclusion de Heidegger est construite à partir d’une interprétation particulière de l’energeia qui laisse de côté d’une manière décisive son aspect performatif, pourtant l’un des traits essentiels de l’energeia telle qu’Aristote l’a conçue. Le fait que dans les années 1930 Heidegger ait lui-même retrouvé cet aspect de l’energeia nous fournit des raisons plus fortes de mettre en doute le supposé conflit entre ontologie et phénoménologie chez Aristote, ce qui peut aboutir à une nouvelle formulation du projet heideggérien.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La préparation de formulations à libération contrôlée est le domaine des sciences pharmaceutiques qui vise à modifier l’environnement immédiat des principes actifs pour en améliorer l’efficacité et l’innocuité. Cet objectif peut être atteint en modifiant la cinétique de circulation dans le sang ou la distribution dans l’organisme. Le but de ce projet de recherche était d’étudier le profil pharmacocinétique (PK) de différentes formulations liposomales. L’analyse PK, généralement employée pour représenter et prédire les concentrations plasmatiques des médicaments et de leurs métabolites, a été utilisée ici pour caractériser in vivo des formulations sensibles au pH servant à modifier la distribution intracellulaire de principes actifs ainsi que des liposomes destinés au traitement des intoxications médicamenteuses. Dans un premier temps, la PK d’un copolymère sensible au pH, à base de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique (MAA) a été étudiée. Ce dernier, le p(NIPAM-co-MAA) est utilisé dans notre laboratoire pour la fabrication de liposomes sensibles au pH. L’étude de PK conduite sur les profils de concentrations sanguines de différents polymères a défini les caractéristiques influençant la circulation des macromolécules dans l’organisme. La taille des molécules, leur point de trouble ainsi que la présence d’un segment hydrophobe à l’extrémité des chaînes se sont avérés déterminants. Le seuil de filtration glomérulaire du polymère a été évalué à 32 000 g/mol. Finalement, l’analyse PK a permis de s’assurer que les complexes formés par la fixation du polymère à la surface des liposomes restaient stables dans le sang, après injection par voie intraveineuse. Ces données ont établi qu’il était possible de synthétiser un polymère pouvant être adéquatement éliminé par filtration rénale et que les liposomes sensibles au pH préparés avec celui-ci demeuraient intacts dans l’organisme. En second lieu, l’analyse PK a été utilisée dans le développement de liposomes possédant un gradient de pH transmembranaire pour le traitement des intoxications médicamenteuses. Une formulation a été développée et optimisée in vitro pour capturer un médicament modèle, le diltiazem (DTZ). La formulation liposomale s’est avérée 40 fois plus performante que les émulsions lipidiques utilisées en clinique. L’analyse PK des liposomes a permis de confirmer la stabilité de la formulation in vivo et d’analyser l’influence des liposomes sur la circulation plasmatique du DTZ et de son principal métabolite, le desacétyldiltiazem (DAD). Il a été démontré que les liposomes étaient capables de capturer et de séquestrer le principe actif dans la circulation sanguine lorsque celui-ci était administré, par la voie intraveineuse. L’injection des liposomes 2 minutes avant l’administration du DTZ augmentait significativement l’aire sous la courbe du DTZ et du DAD tout en diminuant leur clairance plasmatique et leur volume de distribution. L’effet de ces modifications PK sur l’activité pharmacologique du médicament a ensuite été évalué. Les liposomes ont diminué l’effet hypotenseur du principe actif administré en bolus ou en perfusion sur une période d’une heure. Au cours de ces travaux, l’analyse PK a servi à établir la preuve de concept que des liposomes possédant un gradient de pH transmembranaire pouvaient modifier la PK d’un médicament cardiovasculaire et en diminuer l’activité pharmacologique. Ces résultats serviront de base pour le développement de la formulation destinée au traitement des intoxications médicamenteuses. Ce travail souligne la pertinence d’utiliser l’analyse PK dans la mise au point de vecteurs pharmaceutiques destinés à des applications variées. À ce stade de développement, l’aspect prédictif de l’analyse n’a pas été exploité, mais le côté descriptif a permis de comparer adéquatement diverses formulations et de tirer des conclusions pertinentes quant à leur devenir dans l’organisme.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse questionne l’apport de la conservation du patrimoine urbain à l’urbanisme. Il y est avancé que l’association entre la conservation du patrimoine urbain et l'urbanisme, dans leur cadre conceptuel actuel, plutôt que d’être le catalyseur du renouvellement de l’urbanisme, a perpétué une appréhension fragmentée et une atomisation de l'établissement, consacrant ainsi le paradigme fonctionnaliste, qui conditionne encore largement les pratiques urbanistiques contemporaines, au Québec notamment. En effet, bien que depuis les années 1960 la conservation du patrimoine soit présentée comme le fil rouge dans le redéploiement de la compétence d’édifier, plusieurs études soulignent les résultats mitigés de nombreuses expériences de conservation ainsi qu’une contribution limitée relativement à la formulation des projets urbains. Plus particulièrement, malgré la reconnaissance de l’intérêt de la patrimonialisation et de la fécondité potentielle de l’idée de patrimoine en général, l’urbanisme n’est pas parvenu à en définir les termes de la contribution, tant au plan conceptuel que processuel, en regard de sa propre projectualité. De ce fait, il ne réussit pas à affranchir la réflexion patrimoniale du registre de la conservation afin de se l’approprier véritablement. Cette thèse explique les causes de cette incapacité à partir d’une analyse des conditions de l’appropriation de la notion de patrimoine urbain mises de l’avant par l’approche giovannonienne. Celle-ci, fondamentalement urbanistique, propose une conception du patrimoine urbain qui s’émancipe du monument historique et du registre de la conservation. Indissociable d’une projectualité urbanistique, l’intérêt pour le patrimoine urbain de Giovannoni relève d’une reconnaissance du déjà là qui fonde des modalités de prises en charge de l’existant. Celles-ci posent les bases d’un renouvellement de la manière de penser l’urbanisme. La notion giovannonienne de patrimoine urbain, qui réfère à l’ensemble urbain patrimonial, devient l’élément de base d’une analyse morphologique urbanistique qui permet de conceptualiser l’agglomération contemporaine comme ensemble marqué par les ruptures et les discontinuités. Prenant appui sur une démarche dialogique, l’approche giovannonienne relève d’une mise en tension des singularités et d’une appréhension conjointe des différentes registres, ceux des formes et des forces, de l’existant et du souhaité, du penser et du faire. Giovannoni dépasse ainsi l’opposition entre continuité et rupture portée par les pratiques afin de penser l’articulation du nouveau à l’ancien. La confrontation de l’approche giovannonienne aux différentes perspectives qui ont marqué l’urbanisme moderne, montre que ces modalités de prise en charge de l’existant sont conditionnelles à l’accomplissement des promesses de la considération du patrimoine urbain. Autrement, l’association de la conservation du patrimoine urbain et de l’urbanisme culmine dans une double assimilation : l’assimilation du patrimoine urbain au monument historique d’architecture conduit à confondre projet d’urbanisme et projet de conservation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.