600 resultados para Stratégie de planification
Resumo:
Depuis la dernière décennie, le biomimétisme est une discipline en plein essor dans le monde du design durable. De plus en plus, cette stratégie prend place dans plusieurs facettes du design, que ce soit dans le design industriel, dans l’architecture ou encore dans le design urbain. Le livre de Janine Benyus intitulé Biomimétisme: Quand la Nature Inspire des Innovations Durables (1997) est largement reconnu comme étant le catalyseur de la stratégie et comme l’indique le titre du livre, le biomimétisme est très souvent associé à l’innovation. Le but principal de cette recherche est de mieux comprendre le lien entre le biomimétisme et l’innovation. Cette recherche sur le biomimétisme comprend un objectif mineur et deux objectifs majeurs. Le premier objectif cherche à comprendre le véritable lien entre le biomimétisme et l’écodesign. Le second objectif vise non seulement à valider la théorie selon laquelle le biomimétisme est une stratégie menant à des solutions de design innovantes, mais également à établir quels types d’innovations ont été générés par cette stratégie. Finalement, le troisième objectif est d’identifier les aspects du biomimétisme qui mènent à des solutions de design innovantes. Pour accomplir ces objectifs, cette recherche utilisera une approche qualitative supportée par des études de cas et une revue de littérature. Afin de contextualiser les deux derniers objectifs, cette étude établit que le biomimétisme et l’écodesign sont des stratégies complémentaires plutôt qu’en compétition. Les conclusions de cette recherche démontrent que la théorie proposant que le biomimétisme soit une stratégie d’innovation est valide et que la discipline est surtout apte à générer l’innovation radicale. Finalement, la recherche indique que l’analogie de distance et la transdisciplinarité sont les deux aspects du biomimétisme aidant à produire des solutions de design innovantes. Le biomimétisme est mieux connu dans le contexte du design durable et cette recherche permet de mieux comprendre le biomimétisme dans le contexte de l’innovation. Considérant que le biomimétisme est une discipline qui suscite beaucoup d’intérêt des milieux académiques et privés, cette recherche participe à l’expansion de la connaissance sur le sujet et propose de nouvelles pistes de recherche sur le biomimétisme et l’innovation.
Resumo:
La radiothérapie stéréotaxique corporelle (SBRT) est une technique couramment employée pour le traitement de tumeurs aux poumons lorsque la chirurgie n’est pas possible ou refusée par le patient. Une complication de l’utilisation de cette méthode provient du mouvement de la tumeur causé par la respiration. Dans ce contexte, la radiothérapie asservie à la respiration (RGRT) peut être bénéfique. Toutefois, la RGRT augmente le temps de traitement en raison de la plus petite proportion de temps pour laquelle le faisceau est actif. En utilisant un faisceau de photons sans filtre égalisateur (FFF), ce problème peut être compensé par le débit de dose plus élevé d’un faisceau FFF. Ce mémoire traite de la faisabilité d’employer la technique de RGRT en combinaison avec l’utilisation un faisceau FFF sur un accélérateur Synergy S (Elekta, Stockholm, Suède) avec une ceinture pneumatique, le Bellows Belt (Philips, Amsterdam, Pays-Bas), comme dispositif de suivi du signal respiratoire. Un Synergy S a été modifié afin de pouvoir livrer un faisceau 6 MV FFF. Des mesures de profils de dose et de rendements en profondeur ont été acquises en cuve à eau pour différentes tailles de champs. Ces mesures ont été utilisées pour créer un modèle du faisceau 6 MV FFF dans le système de planification de traitement Pinnacle3 de Philips. Les mesures ont été comparées au modèle à l’aide de l’analyse gamma avec un critère de 2%, 2 mm. Par la suite, cinq plans SBRT avec thérapie en arc par modulation volumétrique (VMAT) ont été créés avec le modèle 6 MV du Synergy S, avec et sans filtre. Une comparaison des paramètres dosimétriques a été réalisée entre les plans avec et sans filtre pour évaluer la qualité des plans FFF. Les résultats révèlent qu’il est possible de créer des plans SBRT VMAT avec le faisceau 6 MV FFF du Synergy S qui sont cliniquement acceptables (les crières du Radiation Therapy Oncology Group 0618 sont respectés). Aussi, une interface physique de RGRT a été mise au point pour remplir deux fonctions : lire le signal numérique de la ceinture pneumatique Bellows Belt et envoyer une commande d’irradiation binaire au linac. L’activation/désactivation du faisceau du linac se fait par l’entremise d’un relais électromécanique. L’interface comprend un circuit électronique imprimé fait maison qui fonctionne en tandem avec un Raspberry Pi. Un logiciel de RGRT a été développé pour opérer sur le Raspberry Pi. Celui-ci affiche le signal numérique du Bellows Belt et donne l’option de choisir les limites supérieure et inférieure de la fenêtre d’irradiation, de sorte que lorsque le signal de la ceinture se trouve entre ces limites, le faisceau est actif, et inversement lorsque le signal est hors de ces limites. Le logiciel envoie donc une commande d’irradiation au linac de manière automatique en fonction de l’amplitude du signal respiratoire. Finalement, la comparaison entre la livraison d’un traitement standard sans RGRT avec filtre par rapport à un autre plan standard sans RGRT sans filtre démontre que le temps de traitement en mode FFF est réduit en moyenne de 54.1% pour un arc. De la même manière, la comparaison entre la livraison d’un traitement standard sans RGRT avec filtre par rapport à un plan de RGRT (fenêtre d’irradiation de 75%) sans filtre montre que le temps de traitement de RGRT en mode FFF est réduit en moyenne de 27.3% par arc. Toutefois, il n’a pas été possible de livrer des traitements de RGRT avec une fenêtre de moins de 75%. Le linac ne supporte pas une fréquence d’arrêts élevée.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Au cours des dernières années, le développement des connaissances au niveau de l’étiologie de la maladie ainsi que l’arrivée de nouveaux médicaments et de lignes directrices guidant la pratique clinique sont susceptibles d’avoir entraîné une meilleure gestion de la polyarthrite rhumatoïde (PAR) et de l’ostéoporose, une comorbidité fréquente chez ces patients. Dans cette thèse, trois questions de recherche sont étudiées à l’aide des banques de données administratives québécoises (RAMQ, MED-ÉCHO). Une première étude documente l’utilisation des médicaments pour la PAR au Québec. À ce jour, il s’agit de la seule étude canadienne à rapporter les tendances d’utilisation des DMARD (disease-modifying antirheumatic drug) biologiques depuis leur introduction dans la pratique clinique. Au cours de la période à l’étude (2002-2008), l’utilisation de DMARD (synthétiques et biologiques) a augmenté légèrement dans la population atteinte de PAR (1,9%, 95% CI : 1,1 - 2,8). Cependant, malgré la présence de recommandations cliniques soulignant l’importance de commencer un traitement rapidement, et la couverture de ces traitements par le régime général d’assurance médicaments, les résultats démontrent une initiation sous-optimale des DMARD chez les patients nouvellement diagnostiqués (probabilité d’initiation à 12 mois : 38,5%). L’initiation de DMARD était beaucoup plus fréquente lorsqu’un rhumatologue était impliqué dans la provision des soins (OR : 4,31, 95% CI : 3,73 - 4,97). Concernant les DMARD biologiques, le facteur le plus fortement associé avec leur initiation était l’année calendrier. Chez les sujets diagnostiqués en 2002, 1,2 sur 1 000 ont initié un DMARD biologique moins d’un an après leur diagnostic. Pour ceux qui ont été diagnostiqués en 2007, le taux était de 13 sur 1 000. Les résultats démontrent que si la gestion pharmacologique de la PAR s’est améliorée au cours de la période à l’étude, elle demeure tout de même sous-optimale. Assurer un meilleur accès aux rhumatologues pourrait, semble-t-il, être une stratégie efficace pour améliorer la qualité des soins chez les patients atteints de PAR. Dans une deuxième étude, l’association entre l’utilisation des DMARD biologiques et le risque de fractures ostéoporotiques non vertébrales chez des patients PAR âgés de 50 ans et plus a été rapportée. Puisque l’inflammation chronique résultant de la PAR interfère avec le remodelage osseux et que les DMARD biologiques, en plus de leur effet anti-inflammatoire et immunosuppresseur, sont des modulateurs de l’activité cellulaire des ostéoclastes et des ostéoblastes pouvant possiblement mener à la prévention des pertes de densité minérale osseuse (DMO), il était attendu que leur utilisation réduirait le risque de fracture. Une étude de cas-témoin intra-cohorte a été conduite. Bien qu’aucune réduction du risque de fracture suivant l’utilisation de DMARD biologiques n’ait pu être démontrée (OR : 1,03, 95% CI : 0,42 - 2,53), l’étude établit le taux d’incidence de fractures ostéoporotiques non vertébrales dans une population canadienne atteinte de PAR (11/1 000 personnes - années) et souligne le rôle d’importants facteurs de risque. La prévalence élevée de l’ostéoporose dans la population atteinte de PAR justifie que l’on accorde plus d’attention à la prévention des fractures. Finalement, une troisième étude explore l’impact de la dissémination massive, en 2002, des lignes directrices du traitement de l’ostéoporose au Canada sur la gestion pharmacologique de l’ostéoporose et sur les taux d’incidence de fractures ostéoporotiques non vertébrales chez une population de patients PAR âgés de 50 ans et plus entre 1998 et 2008. Étant donné la disponibilité des traitements efficaces pour l’ostéoporose depuis le milieu des années 1990 et l’évolution des lignes directrices de traitement, une réduction du taux de fractures était attendue. Quelques études canadiennes ont démontré une réduction des fractures suivant une utilisation étendue des médicaments contre l’ostéoporose et de l’ostéodensitométrie dans une population générale, mais aucune ne s’est attardée plus particulièrement sur une population adulte atteinte de PAR. Dans cette étude observationnelle utilisant une approche de série chronologique, aucune réduction du taux de fracture après 2002 (période suivant la dissémination des lignes directrices) n’a pu être démontrée. Cependant, l’utilisation des médicaments pour l’ostéoporose, le passage d’ostéodensitométrie, ainsi que la provision de soins pour l’ostéoporose en post-fracture ont augmenté. Cette étude démontre que malgré des années de disponibilité de traitements efficaces et d’investissement dans le développement et la promotion de lignes directrices de traitement, l’effet bénéfique au niveau de la réduction des fractures ne s’est toujours pas concrétisé dans la population atteinte de PAR, au cours de la période à l’étude. Ces travaux sont les premiers à examiner, à l’aide d’une banque de données administratives, des sujets atteints de PAR sur une période s’étalant sur 11 ans, permettant non seulement l’étude des changements de pratique clinique suivant l’apparition de nouveaux traitements ou bien de nouvelles lignes directrices, mais également de leur impact sur la santé. De plus, via l’étude des déterminants de traitement, les résultats offrent des pistes de solution afin de combler l’écart entre la pratique observée et les recommandations cliniques. Enfin, les résultats de ces études bonifient la littérature concernant la qualité des soins pharmacologiques chez les patients PAR et de la prévention des fractures.
Resumo:
Notre mémoire cherche à étudier la poétique de l’espace qui articule le roman Nadie me verá llorar publié en 1999 par l’écrivaine mexicaine contemporaine Cristina Rivera Garza. En inscrivant sa démarche romanesque dans la perspective postmoderne d’une nouvelle histoire culturelle, Rivera Garza dépeint un moment fondamental de l’histoire du Mexique allant de la fin du Porfiriato jusqu’aux lendemains de la Révolution mexicaine en l’incarnant dans le destin des laissés pour compte. Ce faisant, elle présente un texte où une multitude de récits se fondent et se confondent en un tout complexe où sont mis en perspective une série d’espaces de nature ambigüe. Notre analyse tâche d’expliquer cette interrelation des chronotopes de l’Histoire et du privé en tenant compte de son impact sur la structure narrative. En décrivant les différentes modalités des espaces évoqués dans l’oeuvre, nous nous intéressons au type de relations qui unit l’ensemble de ces espaces au grand temps de l’Histoire officielle mexicaine en démontrant que tous ces éléments sont régis par une politique hétérotopique qui lézarde le fini du discours officiel en y insérant un ensemble d’éléments qui le subvertissent. L’identification et la description de cette stratégie discursive est pertinente dans la mesure où elle offre un éclairage autre sur le roman et semble caractériser l’ensemble des oeuvres de Cristina Rivera Garza.
Resumo:
Modern Painters vol. III, IV et V est une œuvre tripartite développée après 1850, en synchronie avec la guerre de Crimée (1854-56), la répression de la révolte indienne (1857-59) et la deuxième guerre d’indépendance d’Italie (1859). Marqué par ces événements politiques, Ruskin met en œuvre une stratégie complexe pour configurer dans un langage symbolique les frontières et les taxonomies impériales de l’espace européen. Il développe des stratégies de présentation qui combinent le texte et les illustrations pour créer des allégories mentales et visuelles, construites à partir des stéréotypes littéraires et culturels véhiculés dans l’espace britannique. L’auteur met ses derniers volumes de Modern Painters sous le signe de « la crise de la civilisation » représentée par les conflagrations de Crimée, d’Inde et d’Italie, en exprimant son soutien pour la nouvelle alliance entre l’Angleterre et la France. Un autre motif est son obsession avec la réforme sociale via un retour aux valeurs chrétiennes traditionnelles.
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc) en sciences infirmières option formation des sciences infirmières.
Resumo:
Une stratégie de synthèse efficace de différents composés de type azabicyclo[X.Y.0]alkanone fonctionnalisés a été développée. La stratégie synthétique implique la préparation de dipeptides par couplage avec des motifs vinyl-, allyl-, homoallyl- et homohomoallylglycine suivi d’une réaction de fermeture de cycle par métathèse permettant d’obtenir des lactames macrocycliques de 8, 9 et 10 membres, qui subissent une iodolactamisation transannulaire menant à l’obtention de mimes peptidiques bicycliques portant un groupement iode. Des couplages croisés catalysés par des métaux de transition ont été développés pour la synthèse d’acides aminés ω-insaturés énantiomériquement purs à partir de l’iodoanaline. L’étude du mécanisme suggère que l’iodure subit une attaque du coté le moins stériquement encombré de la lactame macrocyclique insaturée pour mener à l’obtention d’un intermédiaire iodonium. La cyclisation se produit ensuite par une route minimisant les interactions diaxiales et la tension allylique. L’iodolactamisation des différentes lactames macrocycliques insaturées a mené à l’obtention regio- et diastéréosélective d’acides aminés 5,5- et 6,6-iodobicycicliques. De plus, une imidate azabicyclo[4.3.1]alkane pontée de type anti-Bredt fut synthétisée à partir d’une lactame macrocyclique insaturé à neuf membres. Les analyses cristallographiques et spectroscopiques des macrocycles à 8, 9 et 10 membres, du composé iodobicyclique 5,5 ainsi que de l’imidate pontée, montrent bien le potentiel de ces dipeptides rigidifiés de servir en tant que mimes des résidus centraux de tours β de type I, II’, II et VI.
Resumo:
Travail d’intégration
Resumo:
Les nanoparticules (NPs) de polymère ont montré des résultats prometteurs pour leur utilisation comme système de transport de médicaments pour une libération contrôlée du médicament, ainsi que pour du ciblage. La biodisponibilité des médicaments administrés oralement pourrait être limitée par un processus de sécrétion intestinale, qui pourrait par la suite être concilié par la glycoprotéine P (P-gp). La dispersion de la Famotidine (modèle de médicament) à l’intérieur des nanoparticules (NPs) pegylées a été évaluée afin d’augmenter la biodisponibilité avec du polyéthylène glycol (PEG), qui est connu comme un inhibiteur de P-gp. L’hypothèse de cette étude est que l’encapsulation de la Famotidine (un substrat de P-gp) à l’intérieur des NPs préparées à partir de PEG-g-PLA pourrait inhiber la fonction P-gp. La première partie de cette étude avait pour but de synthétiser quatre copolymères de PEG greffés sur un acide polylactide (PLA) et sur un squelette de polymère (PLA-g-PEG), avec des ratios de 1% et 5% (ratio molaire de PEG vs acide lactique monomère) de soit 750, soit 2000 Da de masse moléculaire. Ces polymères ont été employés afin de préparer des NPs chargés de Famotidine qui possède une faible perméabilité et une solubilité aqueuse relativement basse. Les NPs préparées ont été analysées pour leur principaux paramètres physicochimiques tels que la taille et la distribution de la taille, la charge de surface (Potentiel Zeta), la morphologie, l’efficacité d’encapsulation, le pourcentage résiduel en alcool polyvinylique (PVA) adsorbé à la surface des NPs, les propriétés thermiques, la structure cristalline et la libération du médicament. De même, les formules de NPs ont été testées in vitro sur des cellules CaCo-2 afin dʼévaluer la perméabilité bidirectionnelle de la Famotidine. Généralement, les NPs préparées à partir de polymères greffés PLA-g-5%PEG ont montré une augmentation de la perméabilité du médicament, ce par l’inhibition de l’efflux de P-gp de la Famotidine dans le modèle CaCo-2 in vitro. Les résultats ont montré une baisse significative de la sécrétion de la Famotidine de la membrane basolatéral à apical lorsque la Famotidine était encapsulée dans des NPs préparées à partir de greffes de 5% PEG de 750 ou 2000 Da, de même que pour d’autres combinaisons de mélanges physiques contenant du PEG5%. La deuxième partie de cette étude est à propos de ces NPs chargées qui démontrent des résultats prometteurs en termes de perméabilité et d’inhibition d’efflux de P-gp, et qui ont été choises pour développer une forme orale solide. La granulation sèche a été employée pour densifier les NPs, afin de développer des comprimés des deux formules sélectionnées de NPs. Les comprimés à base de NPs ont démontré un temps de désintégration rapide (moins d’une minute) et une libération similaire à la Famotidine trouvée sur le marché. Les résultats de l’étude du transport de comprimés à base de NPs étaient cohérents avec les résultats des formules de NPs en termes d’inhibition de P-gp, ce qui explique pourquoi le processus de fabrication du comprimé n’a pas eu d’effet sur les NPs. Mis ensemble, ces résultats montrent que l’encapsulation dans une NP de polymère pegylé pourrait être une stratégie prometteuse pour l’amélioration de la biodisponibilité des substrats de P-gp.
Resumo:
La mondialisation a favorisé l’essor de l’innovation collaborative entraînant une augmentation du nombre de partenariats entre différents acteurs. Grâce à leurs avantages multiples, les projets conjoints jouent un rôle fondamental dans le développement économique et industriel des secteurs à forte valeur ajoutée. Dans cette optique, la création ou la quantification de valeur par l’innovation collaborative repose en grande partie sur la capacité à commercialiser des innovations encadrées par une protection intellectuelle adéquate. Ainsi, la tendance mondiale témoigne d’une augmentation accrue des dépôts conjoints de brevets entre diverses entités. Ces co-dépôts soulèvent une variété de questions juridiques puisque les régimes statutaires ne sont pas nécessairement adaptés à la réalité des partenariats. D’abord, les régimes lacunaires proposés par les lois n’anticipent pas les conséquences juridiques de l’interaction entre divers acteurs. La variété de configurations d’intervenants et la typologie des partenariats entraînent une confusion entre les inventeurs et les propriétaires lors du dépôt d’une demande de brevet. Cette situation peut également induire de facto la copropriété d’un brevet pouvant causer des litiges et miner l’énorme valeur des brevets conjoints. Ensuite, les régimes statutaires sont également déficients à l’étape de l’exploitation d’un brevet conjoint. En comparant les régimes juridiques canadiens et américains, il devient possible de mieux cerner les enjeux juridiques associés aux questionnements présents lors de l’élaboration d’un partenariat. Afin d’obtenir des retombées fructueuses des brevets conjoints, une mise en forme contractuelle est proposée pour pallier ces lacunes statutaires. Grâce à des outils contractuels et à une planification pré-contractuelle, les copropriétaires pourront réaliser l’énorme potentiel de cette institution.
Resumo:
Payer ses soins est une réalité coûteuse pour les usagers des services de santé en Afrique subsaharienne. Plusieurs pays suppriment donc certains types de paiements directs des soins au point de service, en instaurant des politiques d’exemption des paiements (PEP). Cette thèse explore trois enjeux majeurs soulevés par ces réformes. Le premier article analyse le positionnement des acteurs de la santé mondiale dans le débat sur les paiements directs des soins dans les pays à faible et moyen revenu. Cette étude documentaire montre que la majorité des acteurs s’exprime en défaveur des paiements directs en invoquant notamment leurs effets néfastes sur l’équité d’accès aux soins. Le second article met en lumière les effets perturbateurs des PEP sur les systèmes de santé des pays à faible et moyen revenu. Cette synthèse exploratoire indique que leur mise en œuvre perturbe les systèmes de santé de plusieurs manières : augmentation immédiate de l’utilisation des services gratuits, indisponibilité des médicaments, financement imprévisible et insuffisant, multiplicité des organes impliqués dans la mise en œuvre, et déficiences dans la planification et la communication. Le troisième article examine la manière dont les PEP influencent le recours aux soins des usagers. La revue réaliste a permis de développer une théorie qui explique ce processus, et de la mettre à l’épreuve d’études empiriques. Selon cette théorie, les PEP sont une ressource contribuant à renforcer le pouvoir d’agir des usagers. Ce pouvoir d’agir est également influencé par des facteurs structurels, locaux et individuels qui agissent sur la « capabilité » des usagers de se saisir de cette ressource, et de choisir de recourir aux services de santé gratuits. Trois mécanismes jouent un rôle essentiel dans ce choix : la confiance, l’acceptabilité, et la reconnaissance du risque. Cette thèse contribue au développement des connaissances empiriques sur une réforme majeure des systèmes de santé en Afrique subsaharienne. Elle apporte également des enseignements méthodologiques à la revue réaliste, et participe à la construction du champ de la recherche sur les politiques et systèmes de santé dans les pays à faible et moyen revenu.
Resumo:
Lorsque les ouragans entrent en contact avec l'environnement bâti et naturel, les autorités publiques n'ont parfois d'autre choix que de déclarer l'évacuation obligatoire de la population située en zone à risque. En raison de l'imprévisibilité du déroulement d'une catastrophe et des comportements humains, les opérations d'évacuation sont confrontées à une incertitude significative. Les expériences passées ont montré que les technologies de l'information et des communications (TIC) ont le potentiel d'améliorer l'état de l'art en gestion des évacuations. Malgré cette reconnaissance, les recherches empiriques sur ce sujet sont à ce jour limitées. La présente étude de cas de la ville de New York explore comment l'intégration des TIC dans la planification opérationnelle des organisations ayant des responsabilités en matière de transport peut améliorer leurs réponses aux événements et influencer le succès global du système de gestion des catastrophes. L'analyse est basée sur les informations recueillies au moyen d'entretiens semi-dirigés avec les organisations de transport et de gestion des catastrophes de la ville de New York ainsi qu’avec des experts du milieu universitaire. Les résultats mettent en lumière le potentiel des TIC pour la prise de décision en interne. Même s’il est largement reconnu que les TIC sont des moyens efficaces d'échanger de l'information en interne et entre les organisations, ces usages sont confrontés à certaines contraintes technologique, organisationnelle, structurelle et systémique. Cette observation a permis d'identifier les contraintes vécues dans les pratiques usuelles de gestion des systèmes urbains.
Resumo:
La thèse propose d’introduire une perspective globale dans le traitement juridique du transport intermodal international qui prendrait racine dans la stratégie logistique des entreprises. La conception juridique se heurte, en effet, aux évolutions opérationnelles et organisationnelles des transports et aboutit à une incertitude juridique. Les transporteurs ont dû s’adapter aux exigences d’optimisation des flux des chargeurs dont les modes de production et de distribution reposent sur le supply chain management (SCM). Ce concept est le fruit de la mondialisation et des technologies de l’information. La concurrence induite par la mondialisation et le pilotage optimal des flux ont impulsé de nouvelles stratégies de la part des entreprises qui tentent d’avoir un avantage concurrentiel sur le marché. Ces stratégies reposent sur l’intégration interfonctionnelle et interoganisationnelle. Dans cette chaîne logistique globale (ou SCM) l’intermodal est crucial. Il lie et coordonne les réseaux de production et de distribution spatialement désagrégés des entreprises et, répond aux exigences de maîtrise de l’espace et du temps, à moindre coût. Ainsi, le transporteur doit d’une part, intégrer les opérations de transport en optimisant les déplacements et, d’autre part, s’intégrer à la chaîne logistique du client en proposant des services de valeur ajoutée pour renforcer la compétitivité de la chaîne de valeur. Il en découle une unité technique et économique de la chaîne intermodale qui est pourtant, juridiquement fragmentée. Les Conventions internationales en vigueur ont été élaborées pour chaque mode de transport en faisant fi de l’interaction entre les modes et entre les opérateurs. L’intermodal est considéré comme une juxtaposition des modes et des régimes juridiques. Ce dépeçage juridique contraste avec la gestion de la chaîne intermodale dont les composantes individuelles s’effacent au profit de l’objectif global à atteindre. L’on expose d’abord l’ampleur de l’incertitude juridique due aux difficultés de circonscrire le champ d’opérations couvert par les Conventions en vigueur. Une attention est portée aux divergences d’interprétations qui débouchent sur la « désunification » du droit du transport. On s’intéresse ensuite aux interactions entre le transport et la chaîne logistique des chargeurs. Pour cela, on retrace l’évolution des modes de production et de distribution de ces derniers. C’est effectivement de la stratégie logistique que découle la conception de la chaîne intermodale. Partant de ce système, on identifie les caractéristiques fondamentales de l’intermodal. La thèse aboutit à dissiper les confusions liées à la qualification de l’intermodal et qui sont à la base des divergences d’interprétations et de l’incertitude juridique. De plus, elle met en exergue l’unité économique du contrat de transport intermodal qui devrait guider la fixation d’un régime de responsabilité dédié à ce système intégré de transport. Enfin, elle initie une approche ignorée des débats juridiques.
Resumo:
La naissance avant terme constitue un important problème de santé périnatale partout dans le monde. Chaque année près de 15 millions de bébés naissent prématurément. Notre laboratoire s’intéresse depuis une décennie à la conception et le développement de nouvelles classes thérapeutiques (appelés agents tocolytiques) capables d’inhiber les contractions utérines et prolonger le temps de gestation. Due à son implication directe dans le déclanchement des contractions utérines, la prostaglandine F2α (FP) est devenue notre cible de choix. Le PDC 113.824 et aza-glycinyl-proline sont apparus comme des inhibiteurs allostériques puissants du récepteur de la prostaglandine F2α, capables de prolonger la durée de gestation chez les souris. Le travail réalisé au cours de ce mémoire a pour objectif d’étudier le tour β nécessaire pour la reconnaissance sur le récepteur de la prostaglandine F2α. Dans la conception de mime peptidique sélectif efficace et puissant, le repliement β est un élément structural essentiel pour le maintien ou l’amélioration de l’activité du mime peptidique. Les études conformationelles du PDC113.824 et l’aza-glycinyl-proline montrent que les squelettes centraux de ces mimes peptidiques pourraient adopter essentiellement un tour β de type I ou II`, ce qui suggère l’implication des deux types de tours dans l’activité biologique. La synthèse de mimes peptidiques adoptant le tour β de type I et II` est devenue une stratégie logique dans la recherche de nouveaux agents tocolytiques. Au cours de ces études quatre analogues du PDC113.824 ont été synthétisés, un azabicyclo[5.3.0]alkanone et un dipeptide macrocyclique (mimes du tours β de type I) pour étudier l’implication du tour β type I. Par la suite la synthèse de glycinyl-proline et le D-alaninyl-proline (des mimes du tour β du type II`) a été réalisée afin de valider l’implication du tour β type II` dans la reconnaissance sur le récepteur. Nous avons utilisé une stratégie de synthèse efficace pour obtenir les deux analogues (azabicyclo [5.3.0]alkanone et dipeptides macrocycles) à partir d’un intermédiaire commun, en procédant par une cyclisation transannulaire diastéréosélective du tétra-peptide.